Seitenrang im Web 2.0-Zeitalter - Teil 1

Bild
Es werden Wahlen abgehalten, um herauszufinden, wessen Wahlprognose sich als genauer herausgestellt hat. (c) Robert Orben
Um den Beitrag von Google zur Entwicklung von Suchmaschinen zu bewerten, müssen Sie vor etwa 20 Jahren umziehen. In diesen schwierigen Zeiten war die Menge an Informationen im Internet hunderte Male geringer als jetzt, aber die Suche nach den richtigen Informationen war viel schwieriger. Der Benutzer könnte eine lange Zeit auf der Website der Suchmaschine verbringen und versuchen, eine andere Abfrage als die Suchmaschine zu formulieren, ohne das gewünschte Ergebnis zu erzielen. Es gab sogar Agenturen, die ihre Internet-Suchdienste für Geld anboten. Zu Beginn der Suchmaschinen wurde die Bedeutung einer Seite durch viele subjektive Faktoren bestimmt, wie z. B. das HTML-Markup, die Anzahl der Begriffe, Überschriften und die Kühnheit der Schrift auf der Seite. Nicht selten stellte sich heraus, dass eine speziell erstellte Seite oder eine Kopie der Originalseite, die mit den erforderlichen Überschriften und Begriffen gefüllt war, ganz oben stand. Darüber hinaus hatte es aus menschlicher Sicht absolut keine Bedeutung, hatte aber eine sehr hohe Bewertung in der Suchmaschine.

1997 schlugen zwei Studenten der Stanford University den berühmten Page Rank-Algorithmus vor. Tatsächlich ist dies der seltene Fall, als Ingenieure aus einem langfristigen Sumpf sprangen und eine einfache, elegante Lösung fanden, die den Stapel von Problemen in einem einfachen Schritt schloss und das Ergebnis des Kampfes zwischen CEOs und Suchmaschinen für viele Jahre vorab festlegte. Die Essenz von Page Rank ist "Demokratie" in der Welt des Web. Jede Seite auf einer Site, die einen Link zu einer anderen Site enthält, "stimmt" dafür. Somit ragen die am häufigsten zitierten, maßgeblichen Standorte von Primärquellen an die Spitze. Page Rank hilft dabei, die beliebtesten Websites zu übertreffen, die wie Luftblasen im Wasser auf der Grundlage der „Meinung“ einer großen Anzahl weniger beliebter Websites auftauchen. Ein solches Programm funktionierte gut im Ökosystem der frühen 2000er Jahre, in dem kleine Internetseiten dominierten, an deren Inhalten Webmaster und Content Manager teilnahmen. Mit dem Aufkommen von Web 2.0 wurden die Internetnutzer selbst zur Hauptinformationsquelle im Internet, was das Internet veränderte. Erstens hat der enorme Informationsfluss von Benutzern zur Entstehung riesiger Websites mit Millionen und manchmal Dutzenden und Hunderten von Millionen Seiten geführt. Zweitens enthielten Websites eine große Anzahl unstrukturierter und nicht angepasster Informationen für Suchmaschinen, eine große Anzahl lokaler Memes und Syntaxfehler. Sobald ein Thema erstellt wurde, beispielsweise in einem Forum oder Blog unter einer Überschrift, kann es problemlos in einen anderen Bereich zur Diskussion verschoben werden. Bei der Suche auf solchen Websites besteht das Hauptproblem nicht darin, die Berechtigung der Website zu bestimmen, sondern die Seiten innerhalb der Website selbst korrekt zu ordnen, da jetzt Hunderte und Tausende von Seiten unter die Suchabfrage fallen können. In solchen Fällen funktioniert der Page Rank natürlich nicht und viele Suchmaschinen verwenden Tricks aus der Zeit vor Google, z. B. das Analysieren von Überschriften, Tags usw.

Im nächsten Teil werde ich Ihnen erklären, ob es möglich ist, dieses Problem mit Hilfe des maschinellen Lernens zu umgehen, wie die Maschinenrankingseiten innerhalb der Site selbst erstellt werden, da die Terminologie am Beispiel einer Suche auf dieser Site eindeutig ist.

Source: https://habr.com/ru/post/de429902/


All Articles