Moderne Wahrscheinlichskeitsbegriffe
Bin eben in der Wiki über "Semantik" dahin gelangt:
Normalisierte Google-Distanz
[...]
Ermittlung der NGD
Gibt man einen Begriff, beispielsweise "Pferd", in die Suchmaschine Google ein, erhält etwa 12.300.000 indexierte Seiten (Stand: September 2007). Für einen weiteren Begriff, zum Beispiel "Reiter", sind es 13.900.000 Seiten. Kombiniert man die Begriffe, werden ca. 1.690.000 Seiten gefunden. Für das gemeinsame Auftreten der Begriffe "Pferd" und "Bart" werden zwar immer noch 262.000 Seiten aufgeführt, es ist jedoch deutlich, dass "Pferd" und "Reiter" enger zusammenhängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten dieser Begriffe. Im Vergleich zur Gesamtmenge der indexierten Seiten (etwa 8.000.000.000) ergibt dies die NGD.
Wozu braucht man das? Hmm...
Na dann... :) Sachen gibts...Die niederländische Wissenschaftler Paul Vitanyi und der amerikanische Wissenschaftler Rudi Cilibrasi glauben, mit diesem Verfahren einer Künstlichen Intelligenz die Bedeutung von Begriffen automatisch beibringen zu können. Eine von Cilibrasi entwickelte Open Source Software mit dem Namen CompLearn konnte mit Hilfe der NGD bereits Farben von Zahlen trennen oder niederländische Maler anhand der Titel ihrer Werke gruppieren.
Weitere mögliche Anwendungen wären etwa auch in einer Übersetzungssoftware zu finden.
Reading:
Neil Gaiman - Sternwanderer
Watching:
Prof. Dr. Norbert Gronau - BWL für Ingenieure:
Wissensmanagement/Klausurvorbeitung (via tele-Task)
Keine Kommentare:
Kommentar veröffentlichen