Wie Mensch und Robo­ter koope­rie­ren kön­nen: Ein neu­er Ansatz zur Intentionserkennung

(UBT) Wie kön­nen Robo­ter erken­nen, was Men­schen tun wol­len, und deren Absich­ten pro­ak­tiv unter­stüt­zen? Für die­se Her­aus­for­de­rung haben Prof. Dr. Domi­nik Hen­rich und Muham­mad Awais M.Sc. an der Uni­ver­si­tät Bay­reuth einen neu­en Lösungs­an­satz entwickelt.

In vie­len Lebens­be­rei­chen, von der indu­stri­el­len Pro­duk­ti­on bis zur Chir­ur­gie, lei­sten Robo­ter unent­behr­li­che Dien­ste. Die Zahl der Ein­satz­mög­lich­kei­ten steigt stän­dig. Wie kann die Zusam­men­ar­beit von Men­schen und Robo­tern wei­ter opti­miert wer­den? Welt­weit arbei­ten For­schungs­teams an Syste­men, die Robo­ter in die Lage ver­set­zen, die Absich­ten von Men­schen mög­lichst früh­zei­tig und mög­lichst zuver­läs­sig zu erken­nen. Denn sobald Robo­ter zu einer sol­chen Inten­ti­ons­er­ken­nung fähig sind, müs­sen sie nicht auf per Knopf­druck erteil­te Befeh­le war­ten, um den Men­schen zuar­bei­ten zu kön­nen. Sie sind dann imstan­de, gleich­sam aus eige­ner Initia­ti­ve dazu bei­zu­tra­gen, dass die Men­schen die ange­streb­ten Zie­le erreichen.

Die Fähig­keit von Robo­tern, Inten­tio­nen von Men­schen zu erken­nen und unter die­ser Vor­aus­set­zung mit ihnen zu koope­rie­ren, ist auch ein For­schungs­schwer­punkt am Lehr­stuhl für Robo­tik und Ein­ge­bet­te­te Syste­me (Ange­wand­te Infor­ma­tik III) der Uni­ver­si­tät Bay­reuth. Prof. Dr. Domi­nik Hen­rich und sein Mit­ar­bei­ter Muham­mad Awais beschrei­ten dabei neue Wege. Wäh­rend einer inter­na­tio­na­len Robo­tik-Kon­fe­renz in Buda­pest im Juni 2010 haben sie einen gemein­sam ent­wickel­ten Lösungs­an­satz vor­ge­stellt. Vor kur­zem ist der Tagungs­band im Druck erschienen.

Defi­nier­te Hand­lungs­ab­fol­gen in einem kame­ra­über­wach­ten Arbeitsbereich

Das Sze­na­rio, das dem Bay­reu­ther Lösungs­an­satz zugrun­de liegt, ist ein Arbeits­be­reich, in dem Mensch und Robo­ter in unmit­tel­ba­rer räum­li­cher Nach­bar­schaft koope­rie­ren. Die­se Zusam­men­ar­beit betrifft Gegen­stän­de, deren räum­li­che Posi­ti­on auf eine exakt defi­nier­te Wei­se ver­än­dert wer­den soll – bei­spiels­wei­se dadurch, dass sie auf­ein­an­der gesta­pelt oder ein­zeln an ver­schie­de­ne Orte trans­por­tiert wer­den. Kame­ras haben den gesam­ten Arbeits­be­reich im Visier. Sie über­tra­gen Bil­der von jeder Hand­lung, die der Mensch aus­führt, zeit­gleich an den Roboter.

Im Hin­blick auf die­ses Sze­na­rio wird nun eine Viel­zahl ein­fa­cher Aktio­nen defi­niert, die der Mensch im Rah­men der Zusam­men­ar­beit mit dem Robo­ter aus­füh­ren kann. Bei­spie­le für sol­che Aktio­nen sind das Zei­gen auf einen Gegen­stand, das Ergrei­fen eines Gegen­stands, das Anhe­ben, Ver­schie­ben oder Able­gen eines Gegen­stands, das Zei­gen auf einen Ort inner­halb des Arbeits­be­reichs, und vie­les mehr. Man kann die­se ein­fa­chen Aktio­nen mit for­ma­len Bezeich­nun­gen wie a1, a2, a3 … von­ein­an­der unterscheiden.

Von zen­tra­ler Bedeu­tung ist dabei die fol­gen­de Tat­sa­che: Alle kom­ple­xen Hand­lun­gen, die der Mensch wäh­rend der Koope­ra­ti­on mit dem Robo­ter aus­führt, sind als Abfol­gen der­ar­ti­ger ein­fa­cher Aktio­nen defi­niert. Es gibt also bei­spiels­wei­se eine Hand­lung H1, die eine Abfol­ge von a1 + a2 + a8 + a6 dar­stellt; es gibt eine wei­te­re Hand­lung H2, die aus einer Abfol­ge von a2 + a9 + a3 besteht; und so fort. Mit jeder kom­ple­xen Hand­lung ver­bin­det der Mensch eine spe­zi­fi­sche Absicht.

Ein lei­stungs­star­ker Algo­rith­mus zur Intentionserkennung

Der Robo­ter wird nun so pro­gram­miert, dass er weiß, wel­che kom­ple­xen Hand­lun­gen sein mensch­li­cher Part­ner im Rah­men der Zusam­men­ar­beit aus­füh­ren kann und wel­che spe­zi­fi­schen Absich­ten damit jeweils ver­bun­den sind. Zudem weiß der Robo­ter, wie sich die­se kom­ple­xen Hand­lun­gen aus ein­fa­chen Aktio­nen zusam­men­set­zen. Schließ­lich ist er imstan­de, die Kame­ra­bil­der selb­stän­dig zu inter­pre­tie­ren. Dadurch ist er lau­fend dar­über infor­miert, wel­che Akti­on der Mensch gera­de ausführt.

Die Poin­te des Bay­reu­ther Ansat­zes zur Inten­ti­ons­er­ken­nung ist ein Algo­rith­mus, der mit­hil­fe pro­ba­bi­li­sti­scher Zustands­ma­schi­nen ent­wickelt wur­de. Der Algo­rith­mus ver­setzt den Robo­ter in die Lage, auf­grund der beob­ach­te­ten Aktio­nen zuver­läs­sig ein­zu­schät­zen, wel­che kom­ple­xe Hand­lung der Mensch begon­nen hat und dabei ist zu voll­enden. So ist der Robo­ter mög­lichst früh­zei­tig über die Absicht des Men­schen infor­miert. Eine ent­spre­chen­de Pro­gram­mie­rung sorgt dafür, dass er auf die­se Inten­ti­ons­er­ken­nung mit Hand­lun­gen reagiert, die gewähr­lei­sten, dass der Mensch sei­ne Absicht mit tech­ni­scher Unter­stüt­zung erreicht.

So wer­den die Eigen­ar­ten von Mensch und Robo­ter in syn­er­gi­sti­scher Wei­se zusam­men­ge­führt. Der Robo­ter ist schnell, kräf­tig, prä­zi­se und aus­dau­ernd. Dage­gen hat der Mensch einen guten Über­blick und her­vor­ra­gen­de sen­so­ri­sche und kogni­ti­ve Fähigkeiten.

Das Ziel: Anwen­dun­gen im Industriemaßstab

Die Bay­reu­ther Infor­ma­ti­ker haben den Algo­rith­mus im Labo­ra­to­ri­um viel­fach erprobt. Von einem in alle Rich­tun­gen beweg­li­chen Arm eines Robo­ters haben sie sich bei­spiels­wei­se dabei unter­stüt­zen las­sen, einen Gegen­stand an einen vor­ge­ge­be­nen Ort zu trans­por­tie­ren, meh­re­re Gegen­stän­de über­ein­an­der zu sta­peln oder auch einen Sta­pel wie­der abzu­tra­gen. In kei­nem Fall war es erfor­der­lich, die gewünsch­ten Hand­lun­gen des Robo­ters per Knopf­druck aus­zu­lö­sen. Weil der Robo­ter die Inten­tio­nen sei­nes mensch­li­chen Gegen­übers zuver­läs­sig berech­nen konn­te, hat er sich pro­ak­tiv am Gesche­hen betei­ligt. Awais und Hen­rich wol­len die­sen Ansatz mit wei­te­ren For­schungs­ar­bei­ten ver­tie­fen. „Wir sind zuver­sicht­lich, dass sich die Zusam­men­ar­beit von Mensch und Robo­ter auf die­sem Weg noch intui­ti­ver gestal­ten lässt. Mög­li­cher­wei­se lässt sich unser Ansatz eines Tages auch im Indu­strie­maß­stab rea­li­sie­ren“, meint Henrich.