Wikiasari - Suchmaschine mit manuellem Eingriff

Kurz vor Weihnachten wurde bekannt, dass der Wikipedia-Gründer Jimmy Wales ein neues Internet-Projekt namens Wikiasari mit gigantischen Ausmaßen plant. Finanziell unterstützt durch den Online-Versandhändler Amazon (vorrangig bekannt durch seinen Buchversand) will er dabei eine Suchmaschine aufbauen, die ihre Inhalte nicht nur aus dem für Suchmaschinen üblichen Crawlen (mittels Webcrawler, Suchmaschinenbots) beziehen, sondern darüber hinaus bei den Rankings auf Userbewertungen für die Webseiten zurückgreifen. Hierzu sollen ähnlich wie bei Wikipedia zahlreiche Nutzer unentgeltlich Webseiten bewerten und Kommentare dazu hinterlassen können. Dieses für aktuelle Web2.0-Entwicklungen gängige System verbindet somit eine herkömmliche Suchmaschine mit einem manuell gepflegten Webkatalog und erweitert letzteres auf eine breitere Basis von Editoren. Hauptkonkurrent wird zweifelsfrei der aktuelle Marktführer im Suchmaschinenmarkt Google sein. Besonders starke Verbreitung konnte Google vor allem durch seinen schlichten und schnellen Aufbau in Verbindung mit größtenteils sehr hochwertigen Suchergebnissen in Deutschland erzielen. In Deutschland suchen inzwischen über 80% der Internetnutzer direkt mit Google und weitere knapp über 10% der Suchanfragen laufen über Suchmaschinen (wie AOL, T-Online etc.), die die Ergebnisse von Google nutzen. Dennoch sind in vielen Suchergebnissen der bekannten Suchmaschinen massig Spamseiten auf den vorderen Plätzen vertreten. Mit Spamseiten werden allgemein überflüssige Webseiten bezeichnet, die entweder nur anderen Webseiten Besucher zuspielen sollen und/oder fast nur aus Werbung bestehen. Viele Nutzer betrachten auch die seit einiger Zeit Überhand nehmenden Online-Shops, Auktionshäuser und Preisvergleiche im Zusammenhang mit Suchergebnissen als spamartig. All das soll mit Wikiasari besser werden.

Der Name Wikiasari ergibt sich aus dem Hawaiianischen wikiwiki für schnell und dem Japanischen asari für suchen bzw. herumstöbern. Bereits im ersten Quartal 2007 soll eine erste Version online gehen. Im Gegensatz zu Wikipedia soll Wikiasari allerdings kein Non-Profit-Unternehmen werden. Mittels eingebauter Werbung (vermutlich vorrangig Amazon) soll Wikiasari reichlich Profit erwirtschaften. Ob dies so gut klappen wird, läßt sich getrost bezweifeln. Schon in der ersten Version der Google-Toolbar hatte Google damals Buttons zur Bewertung von Webseiten integriert, die jedoch wegen der großen Mißbrauchsgefahr nie genutzt wurden.

Vorteile einer Manuell verbesserten Suche

- (theoretisch) weniger Spam in den obersten Suchergebnissen
- User-generated-Content im Web2.0-Trend mit massig Informationen, die auch in Google etc. Einzug finden werden und somit die Popularität und Verbreitung von Wikiasari steigern werden. Dieser Vorteil nutzt allerdings hauptsächlich dem Projekt und den Werbepartnern (Amazon), weniger dem Nutzer der anderen Suchmaschinen.
- Wenn die Nutzer brauchbare Kommentare hinterlassen, können die Ergebnisse teilweise aussagekräftiger werden.
- Der Suchmaschinen-Index kann durch manuelle Eingriffe schlanker und sauberer gehalten werden, vielleicht werden sogar ganze Linknetzwerke und IP-Bereiche von bekannten Spammern ausgeschlossen.

Nachteile

- Der Mißbrauch durch Nutzer für eigene oder befreundete Projekte und die Abwertung konkurierender Inhalte kann unmöglich verhindert werden. Zwar wird der Mißbrauch bei geeigneten Maßnahmen weniger stark ausfallen, als den Social-Bookmarking-Projekten wie del.icio.us oder Mister Wong, aber wie soll derartiges komplett ausgeschlossen werden? Beim Social-Bookmarking wird vieles durch die Masse relativiert, dennoch kommen ständig neue Einträge hinzu, die offensichtlich vom Autor der Webseite ausschließlich zum eigenen Vorteil stammen und dies wird bei Wikiasari viel Arbeit zur gegenseitigen Überwachung kosten, um wenigstens die auffälligsten Selbstbeweihräucherungen eingrenzen zu können.
- Spammen wird sicherlich versteckt/begrenzt möglich sein - wie soll man derartiges auch komplett ausschließen?
- Beschreibungen könnten zu knapp oder subjektiv ausfallen - die Ausschnitte wie sie Google zu seinen Ergebnissen anzeigt dürften in den meisten Fällen besser sein, da mittels entsprechender Algorithmen direkt auf die Suchabfrage optimiert und nicht wie bei Wikiasari zu erwarten allgemein formuliert. Auch wird es manuell selbst mit zehntausenden Freiwilligen kaum möglich sein, nicht nur die Domains selbst, sondern auch deren oft sehr zahlreiche Unterseiten entsprechend zu bewerten und zu kommentieren.
- Wie sollen neue Unterseiten oder ganze Projekte den Weg nach oben finden, wenn inhaltlich ähnliche Webseiten bereits durch positive Userbewertungen die Topplätze belegen?
- Zur besseren Spambekämpfung kann man schon fast davon ausgehen, dass zumindest die Teile von Wikiasari, die auch in andere Suchmaschinen aufgenommen werden, den Linkparameter rel=”nofollow” tragen werden. (Vermutung meinerseits!) Dies ist in der deutschen Wikipedia (im Gegensatz zur englischen Version) schon seit langem der Fall. Leider ist derartiges für große und starke Webseiten mit User-generated-Content oft notwendig, sorgt aber gleichzeitig dafür, dass derartig starke Projekte (wie Wikipedia) bei vielen Begriffen zwar selbst top in den Suchergebnissen stehen, aber nichts von ihrer Kraft weitergeben und somit konkurrierende Suchergebnisse benachteiligen. Kommt sogar noch der kommerzielle Faktor hinzu, entsteht ein sehr unangenehmer Beigeschmack für derartige Link-Sackgassen.
- Eine starke Wettbewerbsverzerrung könnte die Folge sein, wenn Wikiasari sich wirklich durchsetzen kann.

Weitere zu bedenkende Aspekte

Nicht zu unterschätzen ist der enorme Aufwand, den dieses Projekt kosten wird und die Vorteile, die die meistverbreiteten Suchmaschinen Google, MSN (live.com) und Yahoo aufweisen können. Letztere besitzen zum einen eigene ausgefeilte Suchtechnologien, die ständig verbessert werden und vor allem können sie neben der eigenen Erfahrung auf große finanzielle Rücklagen setzen, um dem Neuling das Leben schwer zu machen. Auch sollte man nicht vergessen, dass alle großen Suchmaschinen in gewissem Umfang bestimmte Webkataloge in das Ranking ihrer Ergebnisse einbeziehen. Allen voran hat das OpenDirectory DMOZ eine sehr große Bedeutung, wenngleich dort durch viel zu wenig Editoren zahlreiche Kategorien veraltet sind oder Editoren auch gute neue Projekte schlichtweg nicht aufnehmen. Auch nicht vergessen sollte man das Yahoo-eigene Webdirectory, welches zwar durch die gebührenpflichtige Aufnahme kaum aktuelle nicht-kommerzielle bzw. kleine Webseiten listet, aber dennoch sehr umfangreich und hochwertig ist. Dieses Verzeichnis bildete jahrelang die Grundlage der Yahoo-Suche, eigene Suchtechnologien besitzt Yahoo erst seit dem Kauf von Inktomi im Dezember 2002 und dem Kauf von Overture im Juli 2003.

Google besitzt nicht ohne Grund zahlreiche riesige Datencenter, laut einem Vertrag von Anfang diesen Jahres mit AMD muss es sich allein bei den CPUs um 6-stellige Mengen (um die 200000?) handeln, die die riesigen Festplattenarchive verwalten, die Rankings berechnen und die Useranfragen beantworten. Ok, ein Teil der Performance geht sicherlich auch an Adsense und andere Google-Produkte, aber den weitaus größten Ressourcenverbrauch hat zweifelsfrei die Suchmaschine selbst.

Zwar gilt der Yahoo-Index als bedeutend aktueller und größer, als der von Google, dennoch bietet Google meist bessere Ergebnisse. Die MSN-Suche (jetzt Microsoft-Live-Suche) hinkte in der Vergangenheit ordentlich hinter Google hinterher, bietet an sich aber inzwischen auch sehr saubere und brauchbare Ergebnisse. Selbst wenn Wikiasari einen vom Spam bereinigten, aber sonst ähnlich umfangreichen Index aufbauen möchte und dabei auch noch die Interaktion mit den Usern rechentechnisch in den Griff bekommen will, haben die dort sehr viel Aufwand zu betreiben und müssen riesige Hardwaremengen beschaffen und warten. Da mit Sicherheit in vielen Fällen auf die mathematisch erzeugten Suchergebnisse nicht verzichtet werden kann bzw. die Algorithmen die Userbewertungen nur als zusätzliches Merkmal berücksichtigen, könnte das ganze schnell ähnlich komplex werden, wie bei anderen Suchmaschinen. Auch die qualitative Verbesserung der Suchergebnisse wird viel Zeit in Anspruch nehmen und nie die maschinell mögliche Aktualität erreichen. Ob sich das Ergebnis bei der zu erwartenden Gegenwehr seitens der großen Suchmaschinenbetreiber noch rentiert und so erfolgreich wird, wie es sich Jimmy Wales erhofft, bleibt abzuwarten.

2 Reaktionen zu “Wikiasari - Suchmaschine mit manuellem Eingriff”

  1. admin

    Die Antwort seitens Google etc. auf Wikiasari könnte natürlich denkbar einfach sein, aber ob man dort wirklich so konsequent sein will, ist fraglich.

    Die einfachste Lösung, um Wikiasari die Grundlage zu nehmen, wäre eine Standardeinstellung, die bereits oben erwähnte Domains mit spamartigen Inhalten wegfiltert, aber auf Userwunsch auch abschaltbar ist. Die Suchergnisse wären mit Sicherheit nahezu immer besser, wenn man sämtliche Preisvergleiche, sogenannte Produktsuchmaschinen, Auktionshäuser und wenigstens die großen Shops ausblenden würde. Gerade zum Shoppen wurde seitens Google die Suchmaschinentochter Froogle (aktuell immer noch Beta) online gestellt. Warum dennoch entsprechende Inhalte auch in der normalen Suche enthalten sind, ist mir ein Rätsel.
    Wenn ich meine eigenen Logs betrachte, kommen häufig Besucher über Suchanfragen, die ein -ebay -amazon -preis etc. enthalten. Warum wohl? ;) Interessant finde ich hierbei auch, dass mitunter sogar ein -wikipedia auftaucht, offensichtlich, da wikipedia in einigen Bereichen zwar nicht ausreichend tiefgreifende Informationen (oder zu unverständlich wissenschaftliche) anbietet, aber trotzdem überall oben auftaucht.

    Auch eine stärkere manuelle Nachbesserung wäre denkbar. Von Google ist derartiges zwar bekannt, jedoch wären bei den finanziellen Möglichkeiten zweifelsfrei weitaus mehr Mitarbeiter finanzierbar, die Spam kicken oder unterstützend in die Rankings eingreifen.

    Eine weitere Möglichkeit, um möglichst wenig Boden an Wikiasari abzugeben, wäre zwar nicht sehr nett, aber äußerst wirkungsvoll: die Suchmaschinen könnten kurzer Hand die entsprechende Domain aus dem Index werfen, künstlich abwerten (und somit runterranken) oder ähnlich zu obiger Idee mit der Wegfilterung der Shops etc. in der Standardeinstellung Wikiasari ausblenden. Noch rigoroser wäre es, mit den zugehörigen Seiten Wikipedia und Amazon ähnlich zu verfahren. Die Stärke am Markt würde dies den Suchmaschinenbetreibern problemlos ermöglichen, andererseits würde dies sicherlich auch zu einigen (albernen) Protesten führen und könnte Imageschäden verursachen.

  2. admin

    Übrigens auch ein interessanter Artikel zum Thema Mißbrauch bei Web2.0 aus dem Spiegel (19.12.2006): Korruptes Web2.0

Einen Kommentar schreiben