Suchergebnisse

Suchergebnisse 1-3 von insgesamt 3.

  • Benutzer-Avatarbild

    Ich glaube, du hast ein paar grundlegende Sachen noch nicht ganz verstanden: Zitat von faxe1008: „ Idee ist dass ich quasi bei einem ResultNeuron EvaluateActivation aufrufe und dann rekursiv durchgerechnet wird“ Man fängt aber beim ersten Layer (Eingabelayer) an und rechnet dann weiter bis zum Ausgabelayer... Für die Ausgabe eines Neurons $y_k$ eines Layers gilt: $y_k = o\left( \sum_{i=0}^{N} w_ix_i\right)$ $o$ - Aktivierungsfunktion $N$ - Anzahl Gewichte (Eingänge) des Neurons $w_i$ - $i$ tes G…

  • Benutzer-Avatarbild

    @faxe1008 Dein Code aus dem Anhang stürzt ab, da die PredecessorWeights nicht gesetzt sind. Der Ansatz, das rekursiv zu berechnen ist zwar denkbar, aber umständlich und bei großen Netzen nicht performant. Ich habe das mal geschrieben, wie ich mir das vorstelle: (Versteckter Text) (Versteckter Text) (Versteckter Text) Der Input in Program.cs ist nur ein Beispiel, natürlich kannst du da auch die Pixelwerte aus deinem Bild nehmen. Der nächste Schritt ist jetzt das Hinzufügen der Fehlerfunktion und …

  • Benutzer-Avatarbild

    Zitat von faxe1008: „ Funktioniert das Rückwärtspropagieren genauso von H21 zu H11 bzw. H12, respektive dann im nächsten Schritt die Input Layer? “ Prinzipiell ja, nur ist das Beispiel von der verlinkten Website recht einfach, denn es gibt nur ein einziges Ausgabe-Neuron. Wenn es mehrere Nachfolger-Neuronen gibt, musst du die Summe der gewichteten Fehlerterme betrachten: $\text{error}_{i,l} = \begin{cases} (\text{target}_i - \text{output}_{i,l}) f'(\text{output}_{i,l}) & \text {für } l = N \text…