Robo­ter ler­nen sehen: Bay­reu­ther For­scher machen Ser­vice­ro­bo­ter intelligenter

Symbolbild Bildung
Prof. Dr. Dominik Henrich, Lehrstuhl für Robotik und Eingebettete Systeme, Universität Bayreuth. Foto: Christian Wißler.

Prof. Dr. Domi­nik Hen­rich, Lehr­stuhl für Robo­tik und Ein­ge­bet­te­te Syste­me, Uni­ver­si­tät Bay­reuth. Foto: Chri­sti­an Wißler.

Damit Robo­ter in Unter­neh­men und Pri­vat­haus­hal­ten als zuver­läs­si­ge Hel­fer ein­ge­setzt wer­den kön­nen, müs­sen sie ihre Umge­bung prä­zi­ser wahr­neh­men und inter­pre­tie­ren, als dies bis­her geschieht. Hier­für wer­den an der Uni­ver­si­tät Bay­reuth inno­va­ti­ve Tech­ni­ken auf der Basis mög­lichst spar­sa­mer Rechen­ka­pa­zi­tä­ten ent­wickelt. Mit Kame­ras aus­ge­stat­te­te Robo­ter sol­len Objek­te ein­deu­tig iden­ti­fi­zie­ren und ver­schie­de­ne räum­li­che Ansich­ten auf­ein­an­der bezie­hen kön­nen. Zugleich sol­len sie ler­nen, Sinn­zu­sam­men­hän­ge in ihrem Arbeits­um­feld zu erken­nen und mit den jeweils gewünsch­ten Ser­vice­lei­stun­gen dar­auf zu reagie­ren. Die For­schungs­ar­bei­ten wer­den von der Deut­schen For­schungs­ge­mein­schaft gefördert.

Im Pro­jekt „SeLa­Vi“, das von Prof. Dr. Domi­nik Hen­rich am Lehr­stuhl für Robo­tik und Ein­ge­bet­te­te Syste­me gelei­tet wird, wer­den Robo­ter in die Lage ver­setzt, auf der Basis von weni­gen cha­rak­te­ri­sti­schen Bil­dern zu erken­nen, was sich in ihrer Umge­bung abspielt. Eine zen­tra­le Rol­le spie­len dabei Kame­ras, die wie Augen an den Armen der Robo­ter befe­stigt sind. Von den Objek­ten in ihrer Arbeits­um­ge­bung erzeu­gen die Kame­ras Bil­der, die in geo­me­tri­sche Model­le über­setzt wer­den. Für die­se Model­le ist es cha­rak­te­ri­stisch, dass sie nur weni­ge, aber reprä­sen­ta­ti­ve Ober­flä­chen­stücke der Objek­te abbil­den. Sie hei­ßen daher Boun­da­ry Repre­sen­ta­ti­ons (BReps) und bean­spru­chen gerin­ge­re Spei­cher- und Rechen­ka­pa­zi­tä­ten als die Punkt­wol­ken oder Drei­ecks­net­ze, die bis­her übli­cher­wei­se zur Objekt­er­ken­nung ver­wen­det wer­den. Die neu­ar­ti­gen Model­le wer­den mit zusätz­li­chen, in den Kame­ra­bil­dern ent­hal­te­nen Farb­infor­ma­tio­nen zusam­men­ge­führt und in einer Daten­bank gespei­chert. Indem die Robo­ter neu hin­zu­kom­men­de Kame­ra­bil­der mit der Daten­bank abglei­chen, kön­nen sie Objek­te in ihrer Umge­bung feh­ler­frei wie­der­erken­nen. Dabei las­sen sie sich nicht durch Bewe­gun­gen benach­bar­ter Objek­te irritieren.

Die­se Fähig­keit der Robo­ter bil­det die Grund­la­ge für wei­te­re Lern­schrit­te, wel­che die Sinn­zu­sam­men­hän­ge zwi­schen den sta­ti­schen oder beweg­ten Objek­ten in ihrem Arbeits­um­feld betref­fen. Robo­ter sol­len die­se „seman­ti­schen Rela­tio­nen“ ver­ste­hen ler­nen, um dann mit ihren Armen auf zweck­mä­ßi­ge Wei­se in die jewei­li­gen Sze­na­ri­en ein­grei­fen zu kön­nen. Alle die­se Fähig­kei­ten, wie sie der­zeit in Bay­reuth ent­wickelt und opti­miert wer­den, kön­nen auf vie­len Gebie­ten ein­ge­setzt wer­den – ange­fan­gen von auto­no­men Ser­vice­ro­bo­tern bis hin zu Koope­ra­tio­nen zwi­schen Men­schen und Robo­tern. „Die­se Ent­wick­lun­gen zei­gen bei­spiel­haft, wie sich nicht nur die indu­stri­el­le Arbeits­welt, son­dern auch unser Lebens­all­tag im Zuge der Digi­ta­li­sie­rung ver­än­dert. Mit unse­ren For­schungs­ar­bei­ten wol­len wir nicht zuletzt dazu bei­tra­gen, dass auto­ma­ti­sier­te Ser­vice­lei­stun­gen die Men­schen auch in ihren pri­va­ten Haus­hal­ten ent­la­sten und die täg­li­che Lebens­qua­li­tät erhö­hen“, sagt Henrich.

Das Pro­jekt „SeLa­Vi“ knüpft an ein the­ma­tisch ver­wand­tes Bay­reu­ther For­schungs­vor­ha­ben an, das eben­falls von Hen­rich koor­di­niert wird. Hier geht es dar­um, Objek­te mit­tels hand­ge­hal­te­ner Tief­en­ka­me­ras sen­so­risch zu erfas­sen und die erzeug­ten Bil­der in CAD-Model­le zu über­set­zen. Dies soll eben­falls auto­ma­tisch gesche­hen, ohne dass der Benut­zer der Kame­ra ein spe­zi­el­les Fach­wis­sen benö­tigt. Um die anfal­len­den Rechen­lei­stun­gen gering zu hal­ten, wird gete­stet, inwie­weit nied­ri­ge Auf­lö­sun­gen der Bil­der schon aus­rei­chen, um anhand der dar­aus gene­rier­ten CAD-Model­le Objek­te iden­ti­fi­zie­ren zu kön­nen. Ziel ist es, mit einer ver­gleichs­wei­se lei­stungs­schwa­chen Rechen-Hard­ware räum­li­che Sze­na­ri­en zu inter­pre­tie­ren, in denen Objek­te mit unter­schied­li­chen Eigen­schaf­ten, For­men und Funk­tio­nen sinn­voll ein­an­der zuge­ord­net sind. „Die Ergeb­nis­se die­ser For­schungs­ar­bei­ten sind sehr hilf­reich für unse­re Wei­ter­ent­wick­lung von Robo­tern, die zuver­läs­si­ge Ser­vice­lei­stun­gen erbrin­gen sol­len, ohne vom Benut­zer ver­tief­tes Fach­wis­sen oder hohe Rech­ner­ka­pa­zi­tä­ten zu ver­lan­gen. Wenn die Tief­en­ka­me­ras vom Arm eines Robo­ters gehal­ten wer­den, kön­nen sie wie Augen fun­gie­ren, die ihm eine zuver­läs­si­ge Ori­en­tie­rung in sei­ner Arbeits­um­ge­bung ermög­li­chen“, erklärt Pro­jekt­lei­ter Henrich.

Wei­te­re Informationen:

www​.ai3​.uni​-bay​reuth​.de/​p​r​o​j​e​c​t​s​/​s​e​l​a​vi/

Der Pro­jekt­na­me “SeLa­Vi” steht für „Seman­tic and Local Com­pu­ter Visi­on based on Color/​Depth Came­ras in Robotics”.