Netzgeflüster: ‚Künstliche Intelligenz‘ (III) – „Künstliche Neuronale Netze“

Heute in der mitlerweile dritten Ausgabe der Reihe beschäftigen wir uns mit einer sehr populären Vorgehensweise, um sowas wie Künstliche Intelligenz aufzubauen. Den künstlichen neuronalen Netzen. Das biologische Vorbild dieses Verfahrens ist tatsächlich nichts geringeres als: unser Gehirn! Das wieso und warum und wie ist Gegenstand der heutigen Ausgabe, in der ich wie immer versuche das ganze möglichst knapp und prägnant und ohne viel Fachchinesisch rüberzubringen. Dabei setzen wir auf der letzten Ausgabe auf, die sich mit maschinellem Lernen auseinandersetzte. Also heute: Was sind ‚Künstliche Neuronale Netze‘?

Unser Gehirn als Vorbild

Der Name „künstliches neuronales Netz“ (KNN) sagt eigentlich schon alles. Es ist eine künstlicher, letztendlich nur digital existenter Nachbau unseres Nervensystems. Sogar noch weniger „greifbar“: es wird nur die Funktionsweise nachempfunden. Unser Nervensystem funktioniert ja durch elektrische Impulse die über unsere Nerven schießen. Erinnert ihr euch? Aktionspotentiale? Bio – in der Schule? Jaaaa, genau die Teile. Die vielen Nervenzellen sind untereinander verbunden und die Impulse wandern von einer Nervenzelle (einem Neuron) zur nächsten. Dabei summieren sich die Impulse auf, d.h. sie werden stärker. Und auch nur, wenn sie stark genug sind, werden sie an die verbundenen Nervenzellen weitergegeben. Und so abstrakt flitzen die Informationen durch unseren Körper! So eine Information kann sowohl der Befehl an die Muskeln sein „Heb den Arm“, als auch was komplexeres. „Unsere Gedanken“ zum Beispiel.

Aus der Biologie in den Computer …

Schon krass, wenn man überlegt, dass diese elektrischen Impulse auch unsere Gedanken darstellen. Unsere Leistungen – wie wir abwägen, kombinieren und wiedererkennen. Wiedererkennen … Erkennung … Mustererkennung. Moment, da war doch was!? Genau! Das ist eine beliebte Disziplin der Künstlichen Intelligenz. Wenn die Vernetzung von Nervenzellen beim Menschen der Schlüssel zu großartiger Denkleistung ist, dann kann das doch auch digital nachgebildet werden, was? So dachte man sich und entwickelte den künstlichen Ansatz: künstliche neuronale Netze. Allerdings ist es nie das Ziel ein komplettes „Hirn“ oder „Nervensystem“ nachzubilden. (Das machen nur die Leute, die versuchen Mind-Uploading zu machen, also einen ‚Menschen‘ versuchen abzuspeichern, creepy – was?) Solche KNN werden in der Mehrzahl der Fälle nur aufgebaut, um eine bestimmte Aufgabe zu lösen. Zum Beispiel Mustererkennung.

Jetzt kommt wieder die Mathematik …

Bei KNN wird das ganze ziemlich stringent nach dem biologischen Vorbild ’nachgebaut‘. Man hat eine Anzahl von Neuronen, die irgendwie untereinander vernetzt sind – wie beim Vorbild. Stellt man sich die Neuronen als Knoten vor, die untereinander wild verbunden sein können, erkennt der Mathe-Junkie: das kann man als Graph und als Matrix mathematisch darstellen. Und dann kann man das schön optimieren und sich daran austoben. Damit aber unser KNN tut, was es tun soll (z.Bsp. Muster erkennen), muss es eben erst trainiert werden. Wir erinnern uns an den letzten Artikel der Reihe: das geht mit maschinellem Lernen.

Image Source: Miss Booleana
Image Source: Miss Booleana

Mini-KNN: 4 Neuronen, die – natürlich – miteinander verbunden sind. Bei 1 und 2 gehen Beispieldaten rein und Neuron 4 soll dann das Ergebnis kennen. Man muss sich vorstellen: an jedem Neuron wird „gerechnet“. Die Formeln dafür sind Standard je nach dem, welches Verfahren man nutzt oder wie die Aufgabenstellung ist.

Für bspw. überwachtes maschinelles Lernen, benötigen wir also Beispieldaten. Mit denen füttern wir unser KNN, unser Programm. Und dann gucken wir mal, was hinten rauskommt. Stellen wir uns mal vor, dass wir wollen, dass unser KNN anhand vieler Daten (Blattdicke, Blattlänge, …) viele ähnliche Blumen auseinanderhalten soll. Wir geben die Daten ein (Blattdicke, Blattlänge, …) und rauskommen soll entweder Blume1, Blume2, … usw. Dann beginnen wir mit dem Training, damit das KNN „lernt“ wie die Zusammenhänge zwischen Blattdicke, Blattlänge, … und der Blumenart sind. Blume1 hat dicke Blätter und nicht so lange Blätter, Blume2 hingegen .. usw. Wir geben die Beispieldaten ein und schauen was es ausspuckt. Das ist ein bisschen wie „raten“. War die Antwort falsch, müssen wir das Netz gemäß überwachten maschinellen Lernens anpassen. Das machen wir mit der Mathekeule: welche Neuronen sind wie stark am Ergebnis beteiligt? Und dann verändern wir diese. Das kann auf vielfältige Art geschehen. Neuron löschen, Verbindung trennen, stärker oder weniger stark gewichten, usw. Was wir tun, das kriegt die Mathekeule für uns raus. Und das machen wir solange, bis das Netz kaum noch Fehler macht. Desto größer das Netz, desto länger kann das dauern. (Sekunden … Minuten … Tage?) Und wenn unser Netz dann nur noch in 99,999…% der Fälle Fehler macht 😉 können wir es an frische Daten ranlassen. Welche bei denen wir das Ergebnis nicht kennen, aber wissen wollen. Der Praxistest. Blume1. Richtig!? Hoffentlich …. 😉

Zu den bisherigen Artikeln der Reihe:

‘Künstliche Intelligenz’ (I) – Was ist dran?
‘Künstliche Intelligenz’ (II) – Maschinelles Lernen

Habt ihr Anregungen für künftige Artikel? Soll ich mal die Mathekeule schwingen und wir uns KNN an einem einfachen Beispiel im Detail ansehen? oder gibt es andere Themen die euch interessieren? Ich bin offen für Vorschläge – immer her damit.

Netzgeflüster ist eine Kategorie meines Blogs in der ich mich immer zwischen dem 10. und 15. eines jedes Monats Themen rund um IT, Forschung, Netzwelt, Internet und eben auch Gerüchten widme. 🙂

15 Antworten

  1. Die Wörter „Mathekeule“, „Matrix“ und „Graph“ machen mir Angst. Ich hatte nur 3 Punkte in Mathe. 😀
    Trotzdem aber ein interessante Thema und auch für Nicht-Informatiker verständlich erklärt. 🙂

    1. Haha, brauchste keine Angst haben, die wollen doch nur spielen 😉 oder so. Das freut mich sehr, dass es auch für Nicht-Informatiker verständlich ist – hatte schon ein bisschen Bedenken, ob das jetzt nicht schon wieder zuviel ist. Aber irgendwann erreicht man so eine Grenze wo Aussparung die einzige Lösung ist. Deswegen die häufig genannte Mathekeule … 🙂 Fachsprache Normalsterblichen zugänglich machen – auch so ein Sprachenthema, was? 😉

  2. Ich glaube das Mini-KNN-Schema wäre so ein Punkt, an dem normale Journalisten aufgeben würden. ^^ Wenn man so was nicht studiert hat und kein Fachjournalist ist, kann man das ja nicht runterbrechen und anderen Leuten erklären. Und deswegen werden Themen wie z.B. die künstliche Intelligenz so wunderbar oft fantasievoll falsch in den Medien dargestellt. Also immer weiter aufklären! 🙂

    1. Danke, ich werde es probieren 😀 Das macht mir schonmal Mut mit der Reihe vielleicht doch noch ein bisschen weiterzumachen. Und das ist leider tatsächlich so, dass man soviele Unwahrheiten, Übertreibungen und Mystifzierungen über KI-Themen liest. Zumindest außerhalb der IT. In Fachartikeln hingegen schafft man es sehr schnell ein so spannendes Thema wie KI total staubtrocken zu behandeln…

      1. 😀 Glaube mir, das passiert nicht nur in der IT-Welt … Richtig talentierte Schreiber können doch jedes noch so spannende Thema einschläfernd gestalten. 😉

  3. Was für eine tolle Reihe!! Gerade erst entdeckt. Ich hab leider keine Ahnung von Mathe, Physik oder Informatik, das Thema ist aber unglaublich interessant. Mehr davon 🙂

    1. Oh dankeschön, das freut mich sehr – ich war mir nicht sicher, ob die Reihe viel Sinn macht und Zuspruch hat, weswegen ich gedanklich eigentlich kurz davor war damit aufzuhören. Aber dann … 🙂

  4. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im […]

  5. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im Detail […]

  6. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im Detail […]

  7. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im Detail […]

  8. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im Detail […]

  9. […] (I) – Was ist dran? ‘Künst­li­che Intel­li­genz’ (II) – Maschi­nel­les Ler­nen ‘Künst­li­che Intel­li­genz’ (III) — “Künst­li­che Neu­ro­nale Netze” ‘Künst­li­che Intel­li­genz’ (IV) — “Künst­li­che Neu­ro­nale Netze” im Detail […]

  10. […] damit zu rechnen ist. Seit einer Weile beobachte ich gespannt die Deepfake-Technologie, die auf Künstlichen Neuronalen Netzen (KNN) beruht. Als ich selber vor Jahren mit KNN arbeitete, bekam ich den Eindruck, dass die […]

  11. […] Code rumspielen. Siehe Link in der Videobeschreibung. Ein bisschen Wissen in KI und insbesondere Künstlichen Neuronalen Netzen ist sinnvoll für nachfolgende Videos. Die Technologie heißt Stable Diffusion. Wer sich das lieber […]

Schreibe einen Kommentar zu Miss Booleana Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert