Humanising Autonomy Oder Wie kommunizieren Menschen mit selbstfahrenden Autos?

Eine der unerwarteten Entwicklungen mit selbstfahrenden Autos und künstlicher Intelligenz ist, dass Studienrichtungen wie Architektur, Psychologie oder Verhaltensforschung mit einem Schlag zu den gefragtesten Ausbildungen geraten. Immer mehr Maschinen und Systeme umgeben uns, mit denen wir interagieren müssen. Nicht nur das Smartphone oder Computer sind damit gemeint, sondern verstärkt Roboter, wobei selbstfahrenden Autos die größten Vertreter sein werden. Und damit werden mit einem Schlag Ausbildungen, die bislang nur in ihrem angestammten Fach blieben, zu begehrten Ergänzungen für die heißesten Technologiethemen.

Maya Pindeus ist eigentlich studierte Architektin mit einem Abschluß der Universität für angewandte Kunst in Wien. Bei einer Abschlussarbeit am Imperial College in London bei der sie gemeinsam mit ihrem Team analysierte, mit welchen Gesten Fußgänger mit Autos im Verkehr interagieren, blieb sie daran hängen. Gemeinsam mit zwei Studienkollegen, Leslie Nooteboom und Raunaq Bose, gründete sie Humanising Autonomy. In dem Start-Up wollen die drei Co-Founder eine Datenbank und Deep Learning-Plattform zu menschlicher Körpersprache, dem Verhalten und Entscheidungen von Maschinen schaffen.

Beispiel

Hier ist ein Beispiel: Eine Fußgängerin nähert sich einer Straßenkreuzung und signalisiert dem Fahrer, dass sie sie Straße überqueren will. Sie macht das mit einer kleinen Handgeste.

HA_01

Was für Menschen leicht zu verstehen ist, ist für eine Maschine eine Herausforderung. Nachdem die Maschine erkannt hat, dass es sich um einen Menschen handelt, muss sie auch erkennen, dass da eine Geste vorkommt. Nun ist es wichtig zu verstehen, ob die Geste für das Auto gemeint ist oder nicht. Und in welchem Kontext kommt sie vor? Ist das eine Fußgängerin, die kreuzen will, oder ein Polizist, der das Auto kontrollieren möchte? oder gar ein übler Bursche, der schlimmes im Sinne hat? Eine Person, die sich hinkniet, kann entweder ihr Schuhband richten, oder sich zu einem Lauf Startbereit machen.

Die Maschine muss also zuerst den visuellen Input erkennen, dann sie Sequenz der Mikrogesten, und dann den Kontext in dem sie passieren. Menschen in unterschiedlichen Städten verhalten sich auch unterschiedlich. Und selbst in einer Stadt kann das in den Stadtteilen differenzieren – wie lokale Dialekte – aber auch von der Tageszeit abhängig sein. Menschen um 8 Uhr früh auf dem Weg zur Arbeit verhalten sich anders als um 23 Uhr auf dem Weg zum nächsten Pub. Sobald dem autonomen Auto das klar wird, kann die Absicht (der Intent) der Personen besser verstanden und entsprechend reagiert werden.

Dem visuellen Input folgt ein Verhaltensmodell, das Maya Pindeus und ihre Mitgründer erstellen wollen. Die Datenbank wird dabei mit Daten von Kameraufnahmen, aus der Industrie und akademischen Umfeld gefüttert, die Körpersprache klassifiziert, sowie implizite und explizite Gesten erfasst. Dieses Jahr soll dann ein erster Prototyp auf expliziten Gesten vorliegen, gefolgt von Mikrogesten.

Das Start-Up arbeitet nicht an einem Software-Stack, als vielmehr an einer Datenbank die menschliche Absichten – den Human-Intent-Layer – umfasst. Die erstellten Algorithmen sollen in späterer Folge auch auf Szenarien in anderen Industrien angewandt werden können.

Erster Fokus ist dabei auf menschliche Gesten und Absichten in einer Stadt und dem dortigen Verkehr. Dazu sind die Gründer Partnerschaften mit Daimler und der Universität von Leeds abgegangen, wo das erste Minimum Viable Product (MVP) erstellt werden soll. Die konkrete Vorgehensweise wird dabei typische Verkehrsszenarien in einer Stadt erfassen. Beispielsweise ein Fußgänger, der eine Kreuzung überqueren will. Dabei wird eine Liste von Kategorien durchgegangen. Ein Kind, ein Erwachsener, eine ältere Person am Gehstock die die Straße überquert. Das Ganze bei Regen, Sonne, am Abend, Untertags und so weiter.

Voraussetzung für die technische Erfassung ist natürlich, dass die Auflösung der eingesetzten Kameras hoch genug ist, um solche Gesten zu erkennen. Welche Finger sind gehoben, oder wohin schauen die Augen, das Gesicht der Person?

Pilotprojekte und Partner

Dieses Jahr sollen die ersten Pilotprojekte durchgeführt werden, sowie weiter Pilotprojekte mit anderen Entwicklungspartnern begonnen werden. 2019 soll die erste Version für eine Integration in bestehende autonome Autos mittels Programmierschnittstellen (APIs) und Software-as-a-Service lizenziert werden können.

Momentan sind Maya und ihre Co-Founder mit der ersten Investmentrunde beschäftigt (soll im Februar abgeschlossen werden) und auf der Suche nach weiteren Partnern (OEMs und solchen mit vielen vielen Daten). Und ja, das Start-Up stellt auch neue Mitarbeiter ein. Speziell Deep Learning Experten, Entwickler und Absolvent mit einem Abschluss in Cognitive Science sind gesucht.

Humanising Autonomy wird auf der SXSW am 10. März eine Podiumsdiskussion zum Thema abhalten. Und hier ist noch ein Link zum Humanising Autonomy Blog.

Dieser Beitrag ist auch auf Englisch erschienen.

3 Kommentare

Hinterlasse eine Antwort

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s