RoboCup-2D-Simulation

RoboCup ist ein seit Mitte der 1990er-Jahren weltweit stattfindendes Turnier, in welchem Teams ihre selbst programmierten „Agents“ in Form von Fußball-Teams gegen andere Teams antreten lassen – wie echter Fußball halt, nur virtuell!

Hierbei gibt es verschiedene Disziplinen – 2D, 3D und die Disziplin unter Einsatz mechatronischer Roboter auf dem „echten“ grünen Feld.

Die 2D- und 3D-Simulationen sind dabei komplett virtuell. Doch wozu das Ganze? Hiermit möchte man auf einladende Art und Weise einen stetigen Fortschritt im Bereich der künstlichen Intelligenz sowie der Robotik erzielen mit dem Fußball als Anziehungs-Katalysator!

Fußball-Manager für Roboter

In unserem Falle haben wir uns (aus Gründen der (relativen) Einfachheit!) der 2D-Simulation angenommen.

Hierzu dienen der RoboCup-Simulation-Server und der Monitor als fundamentale Größen im Projekt. Der Server ist für die Kommunikation zwischen zwei Clients, auf denen die einzelnen Programme der Agents ablaufen, zuständig. Der Monitor hingegen dient als visuelles Fenster um solch ein Match bzw. Simulation auch betrachten zu können.

Der Server unterstützt dabei eine Reihe von Befehlen für die einzelnen Spieler und darüber hinaus. Die grundlegende Art dieser Befehle wird in einer Art Handbuch festgehalten, welches es in sich hat!

Auf den ersten Blick scheint es trivial zu klingen, zumindest zu Beginn, doch die Realität zeigt, dass das Projekt schwieriger ist, als man zuerst annehmen würde. Angefangen von der Recherche, z. B. wie die Tools stabil laufen (vorneweg: am besten per VM unter Ubuntu!) bis hin zu den sich anzueignenden technischen Skills.

Hier kommen dabei eine Menge von Teilbereichen zur Sprache: von mathematischen Winkelberechnungen bis hin zu komplexen Transformationen, welche nötig sind für bspw. die exakte Positionsbestimmung (Stichwort: Triangulation), das Erlernen einer neuen Programmiersprache (in unserem Falle war dies Python, jedoch ist die Nutzung von C++ oder auch Java ebenso möglich) sowie dem Eintauchen in der Welt der komplexen Software-Entwicklung abseits von „Hello World“ und „Erstelle ein Programm zur Berechnung von 2 Werten“.

Eine Projektarbeit bietet die große Chance einen Großteil der erworbenen Kenntnisse vom Studium bis dahin einzusetzen, darüber hinaus den eigenen Horizont zu erweitern und Neues zu erlernen. So haben wir z.B. unseren Fortschritt mittels Git aufgezeichnet.

Git-Repository
Hauptseite des EFI-Git Dienstes

Da (bewegte) Bilder mehr als 1000 Worte sprechen, hier zum Schluss ein kleiner Ausschnitt eines Matches!

Ein typisches RoboCup-2D Match

Deepfakes

Im Rahmen einer Projektarbeit wurden die Tools und die Technologie rund um Deepfake-Videos, also dem Ersetzen einer Person durch eine Andere innerhalb einer Filmaufnahme bzw. eines Live-Videos, analysiert und angewendet.

Werbevideo für das Deepfake-Modell Heinz 2.0

Motivation

Ein Rapbattle zwischen Donald Trump und Joe Biden, widersprüchliche Weihnachtsgrüße der Queen oder Donald Trump, der Belgien rät aus dem Pariser Klimaabkommen auszutreten – alles Situationen, die für uns nur schwer vorstellbar sind. Warum sollten berühmte Persönlichkeiten, wie Politiker oder Hollywood-Stars, solche Aussagen überhaupt treffen und das mögliche Ende ihre Karriere heraufbeschwören? Die Antwort darauf lässt sich ganz einfach sagen: gar nicht. Es handelt sich um gefälschte Medieninhalte, sogenannte DeepFakes. In einer Welt voller Fake News ist es für viele Menschen allerdings zum Alltag geworden, kritische Nachrichten anzuzweifeln und diese zu hinterfragen. Aber was macht es mit uns, auf einmal eine Person in unserem direkten Umfeld in solch einer Situation zu finden? Auf genau diesen Effekt zielen wir mit unserem Projekt ab. Mit Heinz 2.0 kann jede beliebige Person, mit Hilfe von Deepfakes, zu dem in den Ruhestand eingetretenen Professor Heinz Brünig werden.

Bildschirm mit Webcam, Website Heinz 2.0 ist sichtbar, daneben eine große Lampe
Aufbau während der Projektpräsentation

DeepFaceLive

DeepFaceLive ist eine Erweiterung von DeepFaceLab. Die Arbeit mit Deepfacelab war unser Hauptfokus aus der ersten Projekthälfte, denn diese Software macht die Erstellung von hochwertigen Deepfake-Videos möglich.  DFLive hingegen ermöglicht einen Gesichter Tausch (auch FaceSwap genannt), welcher Live vor einer Webcam stattfindet, also in Echtzeit. Normalerweise werden Deepfake-Videos mit dem Ziel trainiert ein bestimmtes Gesicht mit einem weiteren bestimmten Gesicht zu tauschen. Die daraus entstehenden Deepfake-Modelle sind aufeinander abgestimmt und eine Wiederverwendung für andere Gesichter ist nicht möglich. Dieser Vorgang muss dann auch noch für jedes weitere Deepfake Video oder Modell wiederholt werden. Wie können wir also dieses Konzept abändern, um Modelle zu erstellen welche für mehrere Gesichter anwendbar sind? Wie kann man also die trainierten Modelle für den Live-Betrieb und für weitere Deepfake-Videos wieder verwenden?

Der große Unterschied bei DeepFaceLive besteht darin, dass sogenannte RTM Modelle (Ready-To-Merge Modelle) zum Einsatz kommen. Im Zuge der Projektarbeit Heinz 2.0 wurde auf die Erstellung eines solchen Modells eingegangen um den in Ruhestand gehenden Professor Heinz Brünig für das Hochschulleben zu erhalten.

Mehrere Gesichter denen mithilfe eines Deepfakes die Gesichtszüge gegen die von Heinz Brünig ausgetauscht wurden.
Mehrere Beispiele von Heinz 2.0 als Deepfake

Website

https://heinz-2-0.de/

Die verbreitetste Nutzung von Deepfakes ist es allerdings nicht, Professoren aus der Rente zu ziehen oder falsche Nachrichten im Internet zu verbreiten. Deepfakes finden ihre Hauptverwendung heute beim Austausch von Akteuren in Pornos. Dementsprechend waren auf der Website, von der wir unsere Informationen gezogen haben, neben detailreichen Tutorials und Guides zur Deepfake Erstellung auch pornografische Inhalte. Um dem allerdings ein Ende zu setzen und dem schädlichen Image von Deepfakes entgegenzutreten, entschieden wir uns, eine jugendfreie Website zum Thema Deepfakes zu erstellen: Die Internetseite Heinz 2.0, auf der Tutorials, Tipps und Hintergründe zu unserem Projekt zu finden sind.

Projektarbeit „Smart Home“

Eine modulierbare Smart Home-Umgebung zur Erkennung von Personen in Räumen der Hochschule

In dieser Projektarbeit des Studiengangs Medizintechnik wurde eine Smart Home-Umgebung entwickelt, um die Auslastung von Laboren der Hochschule überwachen zu können. Die Umgebung wurde mit Hilfe von eigens entwickelten Sensoren und außerdem kommerziell erhältlichen Sensoren überwacht und in einem Webinterface daraufhin analysiert, ausgewertet und dargestellt.

Aufbau der Smart Home-Umgebung

Ein Raspberry Pi dient als Basis der Smart Home-Umgebung. Auf diesem Linux basierten Computer wurde die Umgebung über einzeln installierbare Software-Pakete realisiert und in drei verschiedene Teile gegliedert:

  1. Node-RED übernimmt die Logik und das darstellen der Benutzeroberfläche
  2. Mosquitto (MQTT) dient dem Transport der erfassten Daten
  3. Homegear und piVCCU stellen die Schnittstelle für die kommerziellen Sensoren dar.

Node-RED

Node-RED ist ein auf der Plattform node.js basierendes und in JavaScript geschriebenes grafisches Entwicklungswerkzeug. Die Entwicklung von Funktionsabläufen, wie beispielsweise die Steuerung von einer HomeMatic Steckdose, findet im Browser statt. Dazu ist zudem keine zusätzliche Software notwendig. Das Node-RED Dashboard ist eine Erweiterungsmöglichkeit für Node-RED und ermöglicht unter anderem die Konfiguration einer grafischen Benutzeroberfläche (siehe Abb. 1). Der User kann aus diesem Grund die Sensordaten visualisieren und daraufhin die Sensoren steuern. Das Tool Node-RED stellt ein bereits integriertes Package-System zur Verfügung. Der Entwickler kann dadurch Erweiterungen einfach nachinstallieren. Weiterhin ist die einfache Handhabung via Drag & Drop, die zahlreichen Erweiterungsmöglichkeiten und außerdem die kurze Einarbeitungszeit ein Pluspunkt für die Nutzung von Node-RED in der Projektarbeit gewesen.

https://nodered.org/

Abb. 1: Visualisierung der Sensordaten in einem Node-RED Dashboard

Die Erstellung von Funktionsabläufen geschieht in sogenannten Arbeitsblättern/Flows. Durch Drag & Drop von einzelnen Bausteinen, sind deshalb einfache Abläufe schnell erstellt. Somit lässt sich der Tür-Sensor von HomeMatic mit lediglich vier Nodes umsetzen (Abb. 3).

Abb. 2: Arbeitsblatt zu dem HomeMatic Door Sensor

Sensoren

Für das Projekt wurden einerseits HomeMatic Produkte und andererseits Eigenbau Sensoren verwendet. Ein HomeMatic-IP Präsenzmelder ist für die Anwesenheit von Personen durch die Erfassung feinster Bewegungen im Einsatz und ein HomeMatic Türsensor stellt fest, ob beispielsweise eine Tür geöffnet oder geschlossen wurde.

Im weiteren Hinblick auf die Präsenzdetektion und Bewertung der exakten Personenanzahl im Raum wurden kostengünstige PIR-Sensoren ausgewählt, da diese einen hohen Stellenwert als Bewegungsmelder haben. Ein ESP8266 Microcontroller wurde als Schnittstelle und erste Logikeinheit zwischen dem besagten PIR-Sensor und Node-RED eingesetzt, da so eine Datenübertragung zwischen den einzelnen Protokollen möglich ist. Die Auswertung dieser aufgenommenen Daten findet im Node-RED Dashboard statt.

Abb. 3: Bewegungsmelder – PIR-Sensor

Analog zum PIR-Sensor wurde auch ein Ultraschallsensor umgesetzt. Zwei HC-SR04 Sensoren errechnen 10 mal in der Sekunde die aktuelle Entfernung zur nächsten Oberfläche aus der Echozeit. Passiert nun eine Person dieses Messfeld, ändert sich folglich die Entfernung signifikant. Man kann nun aus den Daten in Node-RED ablesen, welcher Sensor zuerst ausgelöst hat. Abschließend kann die Logik der Software also bewerten, ob die Person den Raum betreten oder verlassen hat.

Abb. 4: Bewegungssensor – HC-SR04

MQTT

Die erfassten Daten der Sensoren werden über das IoT-Protokoll MQTT an Node-RED übertragen. Der MQTT-Broker Mosquitto, welcher auf dem Raspberry Pi ist, bekommt alle Daten der Sensoren zugesendet. MQTT unterscheidet zuvor die Teilnehmer des Netzwerkes in einen Broker und mehrere Clients auf. Der Raspberry Pi ist in unserem Fall der Broker. Die Sensoren, aber auch Node-RED, sind Clients. Erkennt zum Beispiel ein PIR-Sensor Bewegung, sendet dieser anschließend die Nachricht „Bewegung erkannt“ an den MQTT-Broker auf dem Raspberry Pi. Der Broker empfängt daraufhin die Nachricht und leitet sie an einen Client weiter. Dieser empfangende Client hat vorher beim Broker angemeldet, dass er alle Nachrichten des PIR-Sensors empfangen möchte.

Projektarbeit „Kidnapp’d“

Das sprachgesteuerte Escape-Room-Game

In einer Projektarbeit des Studiengangs Media Engineering wurde in Anlehnung an alte klassische Textadventures ein Escape Room konzipiert und realisiert, der völlig auf visuelle Elemente verzichtet und ausschließlich durch ein CUI (Converstional User Interface) mit Sprache gesteuert wird. Dazu wurde für Amazon „Alexa“ ein Skill implementiert.

Was ist ein Escape Room?

Der Escape Room ist eine neue Erscheinung, die sich mittlerweile einer großen Beliebtheit erfreut. Die Spieler werden dabei in einem Raum eingesperrt und müssen aus diesem entkommen, indem Rätsel gelöst werden. Escape Rooms sprechen jede Altersgruppe an. Eine der wichtigsten Fähigkeiten, um in so einem Raum zu bestehen, ist Teamfähigkeit. Viele Aufgaben müssen im Team gemeistert werden.

Die Escape Rooms sind je nach Setting verschieden eingerichtet. Ob königliches Schlosszimmer oder heruntergekommene Bruchbude – es ist alles möglich.

Rätsel können verschieden ausgelegt sein. Zum einen können Rätsel Nacheinander angeordnet sein so dass die Lösung eines Rätsels zu einem anderen führt. Die parallele Rätselbearbeitung ist ebenfalls möglich. So können zum Beispiel die Ergebnisse vieler einzelner Rätsel die Zahlenkombination eines Schlosses ergeben. Auch die Interaktion mit Gegenständen ist fester Bestandteil von Escape Rooms, wie das Drücken von Knöpfen, Verschieben von Möbeln, Öffnen von Schubladen oder Schränken etc

Story

Die Story handelt von einem namenlosen Protagonisten, der gekidnappt wurde und in einer unbekannten Umgebung aufwacht. Das ganze Setting soll dazu anregen, den Spieler auf der einen Seite neugierig auf die Umgebung zu machen und anderseits animieren die Situation des Protagonisten zu verbessen und aus den Räumen zu entkommen.

Der Alexa Skill

Die Alexa Developer Console ist das webbasierte Tool von Amazon, um Alexa Skills zu entwickeln. Über das Tool wird der End-Point eingetragen, das Interaction Model sowie die jeweilige Invocation eingetragen.

Amazon bietet 2 Möglichkeiten einen Skill zu betreiben.

1. Amazon Lambdafunktionen gehostet über den Amazon Web Service (AWS)

Amazon als einer der größten Anbieter von Cloudservices bietet die Möglichkeit seinen Skill komplett über die webbasierte Anwendung Aws-Services zu realisieren. Das bedeutet das die Skilllogik als Lambdafunktion bei Amazon hinterlegt ist und diese auch mit der Alexa Developer Console kommuniziert.

2. Hosting eines eigenen Servers

Wir haben uns dafür entschieden, dass wir den Amazon Web Service nicht nutzten wollen, sondern den Skill auf unserem eigenen Server zu hosten. Der Amazon Alexa Services kommuniziert über HTTPS mit unserem Server. Diese Kommunikation funktioniert über die Post Methode in der JSON Dateien geschickt werden.

Damit die Alexa Developer Console den Applicationserver findet, wird in der Alexa Developer Console die URL zum Server abgelegt.

Intents

Intents sind ein wichtiger Bestandteil des Amazon-Kommunikation-Models. Dieses Kommunikation-Model gibt den Aufbau der zu erwartenden Befehle an. Intents nehmen in diesem Model den Platz der Befehle ein, die dann in dem entsprechenden Code verarbeitet werden und eine Reaktion des jeweiligen provozieren.