Deep Learning ist die Opti­mie­rung von künst­li­chen neu­ro­na­len Net­zen mit zahl­rei­chen Zwi­schen­la­gen (hid­den lay­ers) zwi­schen der Ein­ga­be und der Aus­ga­be einer Infor­ma­ti­on. Da die inne­re Struk­tur kom­plex und umfang­reich ist, ler­nen die Maschi­nen “tief”. Nötig ist das, weil man­che Din­ge, die für den Men­schen ein­fach sind — etwa die Hand­schrift­er­ken­nung -, für einen Robo­ter ein sehr kom­ple­xes Pro­blem dar­stel­len. An die­ser Pro­ble­ma­tik arbei­ten seit Jah­ren gro­ße Tech­no­lo­gie­kon­zer­ne wie Goog­le, Apple oder Tes­la. Im Ergeb­nis sol­cher Bemü­hun­gen ent­stan­den Sprach­er­ken­nungs­pro­gram­me und auch selbst­fah­ren­de Autos. Inzwi­schen pro­fi­tie­ren vie­le Bran­chen davon.

Neu­ro­na­le Net­ze in der Indus­trie

Im Rah­men der indus­tri­el­len Fer­ti­gung neh­men selbst­ler­nen­de Maschi­nen, wenn sie zum Ein­satz kom­men, natur­ge­mäß einen gro­ßen Ein­fluss auf die Betriebs­ab­läu­fe. Unter ande­rem stür­zen sich die Anbie­ter von Bild­ver­ar­bei­tungs­sys­te­men auf das The­ma. Hier hilft die Tech­no­lo­gie des tie­fen Ler­nens von Robo­tern bei der Auto­ma­ti­sie­rung, der Logis­tik und der Qua­li­täts­kon­trol­le. Ein Bei­spiel lie­fert das Schwei­zer Unter­neh­men ViDi, das mit Deep-Learning-Algorithmen Uhren­her­stel­ler, Logis­ti­ker und einen Milch­pro­du­zen­ten unter­stützt. Auch das schwe­di­sche Start-up Uni­bap nutzt die Tech­no­lo­gie, hier geht es um die Iden­ti­fi­zie­rung von Objek­ten und das Füh­ren von Robo­tern bei­spiels­wei­se im Sicher­heits­be­reich. Der Unibap-Gesellschafter Prof. Lars Asplund (Uni­ver­si­tät Mälarda­len) erklärt, dass die Neu­ro­na­len Net­ze, die schon län­ger für For­men der Künst­li­chen Intel­li­genz ent­wi­ckelt wer­den, gera­de ein Revi­val erle­ben. Jedoch sei es noch ein gewis­ser Weg bis zum indus­tri­el­len Ein­satz von selbst­ler­nen­den Bild­ver­ar­bei­tungs­sys­te­men. Das Ziel ste­he jedoch fest: Die Algo­rith­men sol­len letzt­end­lich voll­kom­men auto­nom über zuläs­si­ge Tole­ran­zen in der Pro­duk­ti­on ent­schei­den kön­nen. Das funk­tio­niert der­zeit noch nicht ohne mensch­li­che Kon­trol­le, jedoch glau­ben Exper­ten wie Prof. Asplund an den indus­tri­el­len Groß­ein­satz etwa ab 2020.

Deep-Learning-Algorithmen im Betriebs­ab­lauf

Man stel­le sich ein Fließ­band vor, an wel­chem ein Arbei­ter jedes Teil in Augen­schein nimmt und es bei unzu­läs­si­gen Tole­ran­zen aus­sor­tiert. Das Pro­blem die­ser Tole­ran­zen sind nicht schlecht ein­ge­stell­te Maschi­nen, son­dern schlei­chen­de Ver­än­de­run­gen bei den Robot­er­werk­zeu­gen durch Tem­pe­ra­tur, Luft­feuch­tig­keit oder viel­leicht ein leicht ver­än­der­tes Schmier­mit­tel. Das Nach­jus­tie­ren erfolgt dann von Hand. Wel­cher Feh­ler auf­tre­ten wird, ist von vorn­her­ein nicht zu sagen. Der Arbei­ter am Band ver­fügt über einen all­ge­mei­nen Erfah­rungs­schatz und reagiert situa­tiv ange­mes­sen. Wäre aber die Anla­ge fähig, die Into­le­ran­zen mit­hil­fe von Deep Learning kor­rekt zu bewer­ten, weil sie eben lernt, was alles pas­sie­ren kann (schon ein­mal sank die Tem­pe­ra­tur in der Hal­le unter 18 °C mit dem Ergeb­nis einer bestimm­ten Into­le­ranz), wür­de sie sich selbst auto­ma­tisch nach­jus­tie­ren. Zum Ein­satz bräch­te die Indus­trie sol­che Algo­rith­men aller­dings erst dann, wenn sie dem ver­läss­li­chen Ein­fluss der selbst­ler­nen­den Maschi­ne auf die Betriebs­ab­läu­fe abso­lut ver­trau­en wür­de. Hier­für ist noch ein wenig For­schung nötig — und nicht nur das.

Pro­blem von Deep Learning: Rechen­leis­tung

Die zur Ver­fü­gung ste­hen­de Rechen­leis­tung hat den größ­ten Ein­fluss auf die Prak­ti­ka­bi­li­tät sol­cher Algo­rith­men. Rein mathe­ma­tisch sind die Algo­rith­men schon über ein hal­bes Jahr­hun­dert bekannt, die ers­te Kon­fe­renz zur Künst­li­chen Intel­li­genz fand 1956 in New Hamp­shire am Dart­mouth Col­le­ge statt. Doch es gab sehr lan­ge kei­ne aus­rei­chend leis­tungs­fä­hi­gen Rech­ner. Das hat sich in den 2000er Jah­ren geän­dert und wird sich noch deut­lich stär­ker ändern, wenn Quan­ten­com­pu­ting die Markt­rei­fe erreicht. Die Rechen­leis­tung, die im Jahr 2017 zur Ver­fü­gung steht, kann immer­hin schon Bil­der in Mil­li­se­kun­den ana­ly­sie­ren und dann einen Deep-Learning-Prozess in Gang set­zen. Die­ser beginnt mit einem Trai­ning des Künst­li­chen Neu­ro­na­len Net­zes (KNN), bei dem bestimm­te Neuronen-Verbindungen auf­ge­baut, ande­re gelöscht wer­den. Die Algo­rith­men eig­nen sich für die Steue­rung von Anla­gen per Bil­der­ken­nung, für die Rege­lungs­tech­nik, die Sen­dungs­ver­fol­gung oder auch einen Ein­kauf ohne Kas­se, den Ama­zon gera­de in sei­nen Offline-Stores tes­tet. Ein Pro­blem ist aller­dings bei zu schwa­cher Rechen­leis­tung, dass die Trai­nings­pha­sen lang­wie­rig aus­fal­len kön­nen. Opti­mie­rungs­pro­ble­me und Über­an­pas­sun­gen kön­nen hin­zu­kom­men. Sol­che Pro­ble­me hat die Indus­trie nicht gern, sie wür­den bei den eng geplan­ten Pro­duk­ti­ons­pro­zes­sen Ver­lus­te ver­ur­sa­chen. Unter­neh­men wie Goog­le und Face­book hin­ge­gen wen­den Deep-Learning-Algorithmen schon an: Nach unse­rer Google-Suche “weiß” die Such­ma­schi­ne, was wir wahr­schein­lich wol­len. Die Revo­lu­ti­on in der Indus­trie steht wahr­schein­lich kurz bevor.