Hebbsche Lernregel        zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]
 
bild

Mir ist noch nicht klar, inwiefern diese Arebit für die neuronalen Netze entscheidend war.

Als hebbsche Lernregel bezeichne ich eine von D. Hebb aufgestellte Regel zum Lernen von neuronalen Netzwerken, die einen Verband von Neuronen mit gemeinsamen Synapsen haben.

"Wenn ein Axon der Zelle A […] Zelle B erregt und wiederholt und dauerhaft zur Erzeugung von Aktionspotentialen in Zelle B beiträgt, so resultiert dies in Wachstumsprozessen oder metabolischen Veränderungen in einer oder in beiden Zellen, die bewirken, dass die Effizienz von Zelle A in Bezug auf die Erzeugung eines Aktionspotentials in B grösser wird." D. Hebb (1949)
D. Hebb gilt damit als der Entdecker des Modells der synaptischen Plastizität, welche in neurophysiologischen Modellen des Lernens verwendet wird.


 

Unklar ist mir auch, inwiefern an hardwaremässigen Neuronen gearbeitet wird:
ZB: https://de.wikipedia.org/wiki/Neuromorpher_Schaltkreis

Ein neuromorpher Schaltkreis ist eine elektronische Schaltung, welche dazu dient, im Rahmen des Neuromorphings ein Modell eines Neurons als Hardware abzubilden. Diese Modelle lassen sich zu künstlichen neuronalen Netzwerken verbinden. Neuromorphe Schaltkreise sind ein Spezialfall der neuronalen Schaltkreise.
Ein in CMOS-Technik gefertigtes Neuronenmodell wird hierbei als „Siliziumneuron“ (englisch: Silicon Neuron,[1] SiN) bezeichnet. Ein Spezialfall ist hierbei der Neuristor, welches ein einfaches Neuronenmodell inklusive Synapsen in einem einzigen Bauteil implementiert.

https://de.wikipedia.org/wiki/Neuristor


 

D. Hebb ist ein Vertreter der behavioristischen Lerntheorie. Ich weiss nicht, inwiefern er sich für Computertechnik interessiert hat und dort rezipiert wurde.

H. von Foerster hat an seinem Bio-Lab an Computern gearbeitet, .... Er hatte keinerlei Erfolg. Bislang beruhen sogenannte neuronale Netzwerke auf Von-Neumann-Maschinen. Die Veränderung der synaptischen Übertragung wird als Gewichtsänderung des neuronalen Graphen abgebildet. Die hebbsche Lernregel ist die älteste und einfachste neuronale Lernregel.

Δ w i j = η ⋅ a i ⋅ a j
mit
Δ w i j: Veränderung des Gewichtes von Neuron i zu Neuron j (also die Änderung der Verbindungsstärke dieser beiden Neuronen)
η: Lernrate (ein geeignet zu wählender konstanter Faktor) a i: Aktivierung von Neuron i a j: Aktivierung von Neuron j, das mit Neuron i verbunden ist.


 
[wp]