text.skipToContent text.skipToNavigation
background-image

Verbesserung von Klassifikationsverfahren Informationsgehalt der k-Nächsten-Nachbarn nutzen von Koch, Dominik (eBook)

  • Erscheinungsdatum: 26.11.2015
  • Verlag: Springer Spektrum
eBook (PDF)
46,99 €
inkl. gesetzl. MwSt.
Sofort per Download lieferbar

Online verfügbar

Verbesserung von Klassifikationsverfahren

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste-Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.

Dominik Koch absolvierte das Statistik-Studium der Ludwig-Maximilians-Universität in München als Jahrgangsbester. Seit 2013 ist er als statistischer Berater (Schwerpunkt: Automobilindustrie und Bankenbranche) tätig. Im Rahmen seiner Publikationstätigkeit arbeitet er auch weiterhin eng mit dem statistischen Institut der Ludwig-Maximilians-Universität zusammen.

Produktinformationen

    Format: PDF
    Kopierschutz: AdobeDRM
    Seitenzahl: 224
    Erscheinungsdatum: 26.11.2015
    Sprache: Deutsch
    ISBN: 9783658114763
    Verlag: Springer Spektrum
    Größe: 1880 kBytes
Weiterlesen weniger lesen

Kundenbewertungen