Direkt zum Inhalt
Symbolfoto: Das AIT ist Österreichs größte außeruniversitäre Forschungseinrichtung

AIT mit drei Beiträgen bei der ROSCon 2025

28.10.2025

Open-Source-Innovationen für autonome Arbeitsmaschinen

Das AIT Center for Vision, Automation & Control (VAC) ist mit drei Vorträgen im Hauptprogramm der ROSCon 2025 (27.–29. Oktober in Singapur) vertreten. Die ROSCon ist die weltweit größte Entwicklerkonferenz, die sich dem Open-Source-Ökosystem ROS widmet. ROS gilt als der Standardbaukasten für Robotik-Software.

„Wir nutzen ROS 2 und andere Open-Source-Software täglich und sehen es als unsere Aufgabe, Ergebnisse aus Industrie- und Forschungsprojekten an die Community zurückzugeben. Umso mehr freuen wir uns, in diesem Jahr mit gleich drei Talks bei der ROSCon vertreten zu sein“, sagt Marco Wallner, Scientist am VAC. „Unsere diesjährigen Beiträge zeigen Open-Source-Lösungen, die die Zusammenarbeit mit Robotern intuitiver, ihre Entwicklung einfacher und komplexe Gesamtsysteme zuverlässiger machen sollen.“
 

"Unsere Aufgabe ist es, Ergebnisse aus Industrie- und Forschungsprojekten an die Community zurückzugeben"  
Marco Wallner, Scientist am VAC

Präsentation:  Sichtbar machen, was ein Roboter wahrnimmt 

Roboter arbeiten zunehmend als Co-Worker im gemeinsamen Arbeitsraum mit Menschen. Auch wenn die formale Sicherheit gewährleistet ist, kann das subjektive Sicherheitsgefühl leiden, wenn unklar bleibt, was der Roboter tatsächlich wahrnimmt – das beeinträchtigt Vertrauen und Akzeptanz.
Im FFG-Projekt CARIPU werden unter AIT-Leitung Bausteine entwickelt, die genau hier ansetzen. Einen dieser Bausteine stellt das AIT in diesem Beitrag vor: ein leichtgewichtiges, ROS-2-basiertes Open-Source-Feedbacksystem mit LED-Streifen, das in Echtzeit verständlich zeigt, welche Personen, Objekte oder Bereiche der Roboter erkennt – eine Art „Augenkontakt“ zwischen Mensch und Maschine. Ziel ist eine intuitive Lösung, die ohne Schulung auskommt und die Zusammenarbeit im gemeinsamen Arbeitsumfeld spürbar angenehmer und sicherer macht.

Projektkontext: FFG-Projekt CARIPU (https://projekte.ffg.at/projekt/4790396), Leitung AIT, Marco Wallner 
Vortragstitel: „Seeing Is Believing: Enhancing Robot Acceptance with Perception-Aware LED Feedback“, 28.10.2025, 11:30 SGT (UTC+8)
Kontakt: Matthias Schörghuber, VAC
GitHub: https://github.com/AIT-Assistive-Autonomous-Systems/led_strip_hmi_demo_workspace

Präsentation:  Werkzeuge für effiziente ROS 2 Datenaufbereitung und Datenverwaltung

Das Aufzeichnen und Abspielen von Sensordaten ist ein zentrales Werkzeug in der modernen Robotikentwicklung: Es schafft eine reproduzierbare Umgebung, in der Algorithmen entwickelt, verglichen und getestet werden können. In ROS 2 werden solche Daten typischerweise als sogenannte Bags gespeichert – zeitgestempelte Datenströme (z. B. von Kamera oder LiDAR), die die Abfolge der Messungen erhalten.

Mit den ros2bag_tools wird die Arbeit mit diesen Datensätzen deutlich vereinfacht. Statt eigener Skripte oder aufwendiger Konfigurationen genügen intuitive Befehle direkt in der Kommandozeile – etwa cut (Ausschnitte bilden), extract (Topics herausziehen), sync (Zeitabgleich), plot (visuelle Darstellung) oder export (Export in gängige Formate).
So lassen sich Datensätze in Sekunden zuschneiden, synchronisieren, visualisieren und weitergeben – einfach, nachvollziehbar und reproduzierbar. Das Tool unterstützt damit den gesamten Workflow: vom Debugging über die Datensatzaufbereitung bis hin zu automatisierten CI-Prozessen.

Vortragstitel: „Help Me with the Bags: Quick & Easy ROS 2 Data Handling“, 28.10.2025, 15:50 SGT (UTC+8)
Kontakt: Markus Hofstätter, VAC
GitHub: https://github.com/AIT-Assistive-Autonomous-Systems/ros2bag_tools

Präsentation:  Bilddaten effizient und zuverlässig übertragen

Mehr Kameras, höhere Auflösung, höhere Bildraten – moderne Robotiksysteme erzeugen enorme Datenmengen. Dieser Beitrag zeigt zwei Open-Source-Werkzeuge für ROS 2, die genau hier ansetzen:

skinny_vision ermöglicht einen besonders effizienten Bildtransport innerhalb und zwischen Prozessen – mit automatischer Komprimierung und Zero-Copy-Speicherweitergabe. 
Ergänzend dazu stellt das AIT Verbesserungen an der gst-bridge vor, die Original-Zeitstempel erhalten und so eine präzise Synchronisation selbst über unzuverlässige Netzwerke hinweg ermöglichen.

Gemeinsam reduzieren diese Bausteine Bandbreite und Speicherbedarf und erhöhen zugleich Zuverlässigkeit und Skalierbarkeit bildverarbeitender Systeme. Für die Praxis bedeutet das: flüssige Multi-Kamera-Pipelines bei geringerer Latenz, robuste Remote-Streams und zeitlich saubere Datenfusion.
Die Anwendungen reichen von der Fabrikautomatisierung und Logistik bis hin zur Landwirtschaft.

Vortragstitel: „Smarter Vision Pipelines for ROS 2: Compress, Transport, and Sync at Scale“, 28.10.2025, 15:00 SGT (UTC+8)
Kontakt: Guilherme Rodrigues, VAC
GitHub: https://github.com/AIT-Assistive-Autonomous-Systems/roscon2025_smarter_vision_pipelines

AIT ist Mitglied der OSRA und baut die Entwicklung autonomer, robotischer Systeme aus

Übrigens ist das AIT Mitglied der Open Source Robotics Alliance (OSRA) – einem globalen Zusammenschluss führender Unternehmen und Institutionen im Bereich der Robotik. Unter dem Dach der OSRA wird unter anderem das Robot Operating System (ROS) verwaltet – die Softwareplattform, die zum internationalen Standard für Robotersysteme geworden ist. Mit dieser Mitgliedschaft baut das AIT seine Schlüsselposition in der internationalen Entwicklung autonomer, robotischer Systeme weiter aus.
Christoph Fröhlich, Experte in der Entwicklung autonomer Arbeitsmaschinen am VAC, vertritt das AIT in der OSRA und trägt als Maintainer des Projekts ros2_control maßgeblich zur Weiterentwicklung einer der wichtigsten Open-Source-Plattformen in der Robotik bei.

Alle Vorträge werden live gestreamt und sind anschließend online verfügbar unter roscon.ros.org/2025.
 

Links:
ROSCon: roscon.ros.org/2025/
OSRA: osralliance.org/membership/
Autonome Arbeitsmaschinen: www.ait.ac.at/loesungen/autonome-arbeitsmaschinen
Large-Scale Robotics Lab: www.ait.ac.at/labs/large-scale-robotics-lab