Andere Tipps

Wenn Sie in einer anderen Art und Weise, dies zu tun interessiert sind, können Sie folgendes tun. Auf diese Weise ist theoretisch mehr Sound, aber nicht so einfach.

Durch die Erwähnung Mittelwert und std, so scheint es, als ob Sie auf Daten beziehen, dass Sie davon ausgehen, in irgendeiner Weise verteilt werden. Zum Beispiel die Daten, die Sie Beobachter gaußverteiltes. Sie können dann mit der symmetrisierter Kullback-Leibler_divergence als Abstandsmaß zwischen diesen Verteilungen . Sie können dann so etwas wie verwenden k-nearest-neighbor zu klassifizieren.

Für zwei Wahrscheinlichkeitsdichten p und q haben Sie KL (p, q) = 0, wenn p und q gleich sind. Allerdings KL nicht symmetrisch ist - so, um eine richtige Abstandsmaß zu haben, können Sie

Abstand (p1, p2) = KL (P1, P2) + KL (p1, p2)

Für Gaussians, KL (p1, p2) = {(μ1 - μ2) ^ 2 + σ1 ^ 2 - σ2 ^ 2} / (2.σ2 ^ 2) + ln (σ2 / σ1). (Ich habe das von hier , wo Sie auch eine Abweichung finden: )

Lange Rede kurzer Sinn:

Bei einem Trainingssatz D von (Mittelwert, Standard, Klasse) Tupel und ein neuen p = (Mittelwert, Standard) Paare finden, dass q in D, für die Entfernung (d, p) minimal ist und die Klasse zurück.

Für mich fühlt sich besser als der SVM-Ansatz mit mehreren Kernel, da die Art und Weise der Klassifizierungs nicht so willkürlich ist.

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top