Interview mit unserem CEO Philipp Descovich

Humai Technologies arbeitet mit seinen Industriekunden und Partnern daran, die Fähigkeiten des Menschen (Human Augmentation) durch künstliche Ingenieure und Assistenten kontinuierlich zu verbessern.

Wie sind Sie zu Humai gekommen?

Im Dezember 2012 fragte mich Peter Pichler, der Vorstandsvorsitzende der Berndorf AG, ob ich ihm bei einer strategischen Planung für ein kleines Softwareunternehmen helfen könnte, in das die Berndorf Gruppe investiert hatten. Das Unternehmen hatte zwar keine wirkliche Strategie, dafür aber ein kleines Team aus extrem talentierten Technikern, die auf ein spannendes Gebiet spezialisiert waren: die Kombination von Computer Vision und Augmented Reality. Während des Strategieprozesses verliebte ich mich in das Potenzial, das in diesem großartigen Team schlummerte. Also habe ich Berndorf in der abschließenden Strategiepräsentation vorgeschlagen, Aktien des Unternehmens zu kaufen und als CEO einzusteigen.

Was ist die Vision von Humai Technologies?

Unsere Vision ist es, mit Hilfe von Technologien wie künstlicher Intelligenz und 3D-Visualisierung Lösungen zu schaffen, die Menschen helfen, in ihren täglichen Aktivitäten effektiver zu werden. Wir glauben daran, dass wir mit unseren Technologien menschen Superkräfte verleihen können.

Haben Sie echte Kunden?

Die ersten Superkräfte oder Assistenzsysteme wurden gemeinsam mit der Firma Bosch entwickelt und verbessern dort die Art und Weise wie mit Ersatzteilen umgegangen wird. Ein Beispiel ist der Bosch Pocket Assistant, den können sie sich sogar auf ihr privates Handy runterladen und damit Boschzubehör im Baumarkt suchen und finden.

Weitere Superkräfte werden aktuell zusammen mit der Firma Aichelin entwickelt und getestet. Offensichtlich haben wir noch keine Tausende von Kunden, ansonsten wären Google und Apple nicht mehr die größten Konzerne in der IT-Welt.

Was ist aktuell mit KI und Computer Vision möglich?

Eine Menge. Computer Vision und Künstliche Intelligenz haben ca. 2016 durch immer günstigerer Preise für Computing Power einen Reifegrad erreicht, der es uns ermöglicht diese Usecases in einem Umfeld einzusetzen, in dem es weniger auf Spielereien wie „Das ist ein Gesicht oder eine Flasche“ sondern auf eindeutige Erkennung ankommt wie „Das ist SAP Nummer 38kB8767!“ Auch die Zeit spielt eine Rolle. In einem industriellen Umfeld warten die Ingenieure oder Techniker nicht 15 Minuten, auf ein Ergebnis einer Erkennung, sondern maximal Sekunden.

Aktuelle Superkräfte, die wir für Kunden implementieren sind „Kenne alle deine 100.000 Ersatzteile“, „kenne alle deine Dokumentationen (Bedienungsanleitungen, Wartungsinstruktionen)“, „Röntgenaugen“ und in der Entwicklung haben wir gerade „Reisen in die Vergangenheit“, um Technikern die Möglichkeit zu geben zu sehen, wie war der Zustand kurz vor einer Störung oder eines Ausfalls.

„Reisen in die Zukunft“ ist sowas wie der heilige Gral des Maschinenbaus. Auch das wird möglich sein, aber dafür benötigen wir einiges an Daten und auch ein paar Ausfälle, um daraus zu lernen. Da stehen wir uns im deutschen Maschinenbau zurecht im Wege.

Warum ist die Identifikation von Bauteilen so schwierig?

Computer können keine Bilder erkennen und auch heute weiß noch niemand genau wie wir das als Menschen genau machen. Obwohl ein Kugelschreiber und ein Bleistift für einen Menschen ähnlich aussehen, werden Computer keine Assoziationen bilden und sie gegen eine viel größere Menge von Daten abgleichen müssen. Das dauert, kostet viel Geld und erhöht die Komplexität.

Je besser wir Menschen die künstliche Intelligenz abgrenzen, desto besser und günstiger werden die Ergebnisse, aber desto kleiner wird die Anwendung.

Wird diese Technologie den Menschen mittelfristig ersetzen?

Wir sehen folgende Entwicklungen und ich verdeutliche das am Beispiel der Autopiloten im „Autonymen Fahren“ über das gerade alle reden. Ein Schulbusfahrer ist auf den ersten Blick überflüssig, wenn wir davon ausgehen, dass die Technologie irgendwann einen Schulbus von Wien nach München fährt. Allerdings stellt man dann vermutlich sehr schnell fest, dass der Busfahrer neben dem Fahren des Busses noch ganz andere Aufgaben hatte, die er die letzten 50 Jahre wie selbstverständlich mit gemacht hat. Er sorgt für Ordnung und Disziplin im Bus, er reinigt ihn, im Falle eines Notfalls organisiert er Hilfe, er passt auf, dass sich niemand ernsthaft verletzt und hält den Bus nochmal an, wenn ein Kind schreiend nebenher rennt.

Wir glauben daher, dass sich die Dinge im Engineering Umfeld ähnlich verhalten. Durch KI sinken die Kosten für ganz bestimmte Prognosen wie „Wird dieses Bauteil in den nächsten 24 h eine Störung haben!“ In der Vergangenheit musste ein Mensch so eine Prognosen für einen Monat oder sogar ein Jahr treffen, da es schlichtweg zu teuer, war diese Prognose jeden Tag zu machen.

Auf der Basis dieser Informationslage kann dann ein Mensch seine Entscheidungen treffen und für diese Entscheidungen dann wie gehabt die Haftung oder die Verantwortung für die Entscheidung übernehmen. Der „Artificial Assistant“ übernimmt die Datensammlung und die Prognosen, der Mensch die Entscheidungen.

Was denken Sie über Künstliche Intelligenz?

Es wird ja viel über AI gestritten, und oftmals habe ich das Gefühl, dass viele denken, dass es nur noch eine Frage der Zeit ist, bis eine Superintelligenz uns alle abschafft. Meine Meinung dazu ist: „Zeigen wir einem Menschen aus dem 16. Jahrhundert zum Beispiel ein IPhone und die Möglichkeiten, die es uns heute bietet, würde diese Person die Möglichkeiten damit als fantastisch ansehen. Es zerbricht die Physik, in dem wir mit Menschen, die an einem anderen Ort sind sprechen können, oder Bilder machen. Michelangelo würde denken, dass man damit auch Essen oder Feuer machen oder Krankheiten heilen kann, aber wir wissen, dass die Möglichkeiten eines IPhones durchaus limitiert sind. Ähnliches passiert heute im KI Umfeld. Wir philosophieren über die Möglichkeiten, aber in der Realtität ist KI ein Tool, dass ähnlich großes Potential hat unseren Alltag zu verändern wie elektrisches Licht oder Personenverkehr, aber auch noch sehr limitiert. Was die weitere Zukunft bringt, werden wir sehen.

Was ist der nächste Schritt für das Projekt “Mobiler Maschinen Assistent”?

Wir sind gerade dabei eine „Visionbased Search“ für einen Kunden zu implementieren, bei der man über irgendein Teil einer Maschine, einer Anlage oder Ersatzteil scannt und dann alle relevanten Unterlagen angezeigt bekommt, ohne Ordner, Kataloge oder 1000 von PDFs zu durchsuchen.

Des Weiteren sind auf unserer Roadmap „ Der Sprung in die Vergangenheit“, um im Falle von Ausfällen oder Störungen schneller zu verstehen, was passiert ist und die „Automatisierte Dokumentation“ von Wartungstätigkeiten, um die Akzeptanz der Assistenten zu stärken.

Was ist der nächste Schritt für Humai?

Im Herbst 2019 eröffnen wir ein Office in Frankfurt/Bad Homburg, um den deutschen Markt vor Ort zu erschließen und in 2020 arbeiten wir an unserem globalen Go-To Market.

Sie möchten mehr?

Bernd Steinberger @ Humai