Multimedia im Überblick/ Anwendung/ PC und Internet/ Suchmaschinen

Aus Wikibooks
Wechseln zu: Navigation, Suche


Diese beiden Dienste sollen dem Internetbenutzer ein leichteres Suchen ermöglichen und bessere Ergebnisse bringen.

Suchmaschinen[Bearbeiten]

Begriff[Bearbeiten]

Suchmaschinen sind Systeme zur Informationsrecherche im Internet. Grundsätzlich unterscheidet man zwischen Suchmaschinen (z.B. Google, Altavista, Lycos) und Katalogen (z.B. Yahoo, msn, WEB).

Die Entstehung von Suchmaschinen[Bearbeiten]

Internet-Suchmaschinen haben ihren Ursprung in Information-Retrieval-Systemen (Systeme zum Abrufen von Informationen). Mitte der 80er Jahre begannen einige Universitäten in den USA mit der Entwicklung von Bibliothekssuchmaschinen. Aus der vernetzten Datenstruktur entstanden Ende der 80er Jahre in den USA die ersten Webkataloge.
1991 entwickelten Paul Lindner und Mark P. McCahill „Gopher“. Thematische Katalogisierung und der komplette Datenbestand konnten mittels der Software "Veronica" (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives) durchsucht werden. Gopher konnte jedoch nicht nach Bildern und Grafiken suchen, somit verschwand Gopher drei Jahre später wieder. Mit Webcrawler entstand 1994 die erste Suchmaschine. Wenig später manifestierten sich auch die ersten Webverzeichnisse (Webkataloge). Der erste und gleichzeitig auch heute noch bekannteste Webkatalog ist Yahoo.

Geschichte der Suchmaschinen – Google – Yahoo! – MSN- Search[Bearbeiten]

90% des Suchmaschinen-Traffics kommen von den "Großen 3".
Diese sind Google, Yahoo und MSN Search. Die meisten anderen Suchmaschinen schlossen Verträge mit diesen drei Suchmaschinen-Betreiber ab. Die wichtigste Suchmaschine mit der größten Reichweite ist Google. Dem folgt das Yahoo-Netzwerk, das durch die Aufkäufe der Suchmaschinen AltaVista, AllTheWeb, Overture und Inktomi enorm an Reichweite zugelegt hat. 'MSN Search ist die dritte Suchmaschine in der Rangfolge. Bekannt sind die folgenden Suchmaschinen, die jeweils die Ergebnisse einer drei "Großen 3" anzeigen: AltaVista, AllTheWeb, HotBot, Lycos und Excite. Zu den bekannteren deutschsprachigen Suchmaschinen gehören auch Abacho, AllesKlar, Dino-Online, Sharelook und die in der Schweiz bekannte Suchmaschine search.ch, die auch ein Verzeichnis bietet.

Google[Bearbeiten]

Die Geschichte des heutigen Marktführers beginnt Anfang 1996. Die beiden Doktoranden Larry Page und Sergey Brin überlegen sich, dass die Relevanz einer Webseite zur Anzahl der Seiten, die auf sie verweisen, proportional ist. Die erste Suchmaschine auf dieser Basis nennt sich „BackRub“, da sie die Backlinks, die eine Seite aufweist, bei der Bewertung berücksichtigt. Zunächst laufen Beta-Versionen der Suchmaschine über die Webpräsenz der Universität. Ab 1997 ist sie auch über google.com zu erreichen. Am 7. September 1998 findet die Gründung der Firma Google Inc. statt. Der Name stammt von der Zahl Googol ab, die größenmäßig einer 1 mit 100 Nullen bzw. 10 Sexdezilliarden entspricht. Am 21. September 1999 ist die Google Beta-Phase offiziell beendet. Mit acht Mitarbeitern bezieht die Firma ihr erstes eigenes Büro in Palo Alto.
Am 4. September 2001 wird das Patent auf PageRank erlangt. Seit Juni 2000 wird Werbung eingeblendet. Ein Nachrichtendienst in deutscher Sprache wird von Google erstmals im Juli 2003 angeboten. Im April 2004 folgt eine erste Beta-Version des E-Mailanbieters Gmail (heute in Deutschland: Google Mail). Durch den Börsengang im August 2004 werden die Google-Gründer Page und Brin, die ihre Promotion zugunsten der Suchmaschine aufgegeben haben, zu Multimilliardären.

Yahoo![Bearbeiten]

Auch hier handelt es sich um zwei Doktoranden (der Stanford-Universität), David Filo und Jerry Yang, die ein Webseitenverzeichnis mit dem Namen „Jerry's Guide to the World Wide Web“ im Januar 1994 gründeten. Bereits drei Monate später wird der Name in Yahoo! Geändert. Das Ausrufezeichen musste aus markenrechtlichen Gründen hinzugefügt werden. Bis Ende 1994 wird das Verzeichnis bereits eine Million Mal aufgerufen und am 2. März 1995 die Yahoo! Inc. gegründet. Mit 2,6 Millionen Anteilen geht Yahoo! im April 1996 an die Börse. Ende der 1990er Jahre wird die Yahoo! Suchmaschine in ein Web-Portal umgewandelt. Außerdem wird 1999 der Instant Messenger Yahoo! Messenger (YIM) gestartet.

Das Suchprinzip des hierarchisch geordneten Webkatalogs wird am 26. Juni 2000 aufgegeben, stattdessen benutzt man seitdem die Google-Suche über das Yahoo!-Interface. Zudem bietet Yahoo! mehrere andere kostenpflichtige Dienste an, mit beispielsweise exklusiven Inhalten. Ab ca. 2003 ist der Hauptkonkurrent von Yahoo! nicht mehr AOL auf dem Breitband-Sektor, sondern schwenkt in die Suchmaschinensparte zu Google. Am 18. Februar 2004 wird die Suchpartnerschaft mit Google beendet.
Seit 2005 produziert bzw. übernimmt Yahoo! außerdem Dienste, die teilweise für das Web 2.0 tauglich sind, wie beispielsweise die Fotoseite Flickr, den Blog- und Netzwerkservice Yahoo! 360° oder Yahoo! Music. Heute werden von Yahoo weltweit 920 Mitarbeiter beschäftigt. Yahoo! hat tägliche Zugriffe von durchschnittlich 700 Millionen Page Impressions und der Börsenwert liegt bei 64,75 Milliarden US-Dollar.

MSN bzw. Windows Live[Bearbeiten]

MSN (The Microsoft Network) wird am 24. August 1995 als Internet-Anbieter gegründet. Eines der ersten anderen Angebote ist der E-Mailservice Hotmail, der seit Ende 1997 im Besitz von Microsoft ist. Im Herbst 1998 geht die MSN Suche erstmals online, sie liefert zu diesem Zeitpunkt Ergebnisse der Suchmaschine Inktomi. Seitdem versucht sich Microsoft an einer eigenen Suchengine. Eine Beta-Version wird im November 2004 ins Netz gestellt, im Februar 2005 wird die Beta-Phase beendet. 1999 wird von MSN die erste Version des Instant Messengers, MSN Messenger veröffentlicht. Heutzutage wird mit der Abkürzung „MSN“ in den meisten Fällen nicht das gesamte Netzwerk gemeint, sondern Bezug auf den Messenger oder die Suche genommen. Seit 2006 werden die einzelnen Dienste nach und nach auf die neue Marke Windows Live umgestellt. Die Windows Live Suche wird als Nachfolger der MSN Suche im März 2006 als Beta-Version für die Öffentlichkeit zugänglich gemacht. Seit dem 11. September des Jahres ist die fertige Version online. Abnehmer der Suchergebnisse ist seit Mai 2006 A9, die Suchmaschine des Internetladens Amazon. Bald veröffentlicht Microsoft seine eigene experimentelle Suche, „Ms. Dewey“.

Seit Mitte Januar 2007 wird bei der Windows Live Suche damit geworben, bei jedem Suchvorgang einen Geldbetrag an ninemillion.org, die Flüchtlingsorganisation des UNHCR (United Nations High Commissioner for Refugees, Hoher Flüchtlingskommissar der Vereinten Nationen) zu spenden.

Arten von Suchmaschinen – Kategorisierung[Bearbeiten]

Suchmaschinen lassen sich nach einer Reihe von Merkmalen kategorisieren.

Volltextsuchmaschinen[Bearbeiten]

Eine Volltextsuchmaschine führt drei grundlegende Vorgänge durch:

  • Herunterladen von Dateien (durch sogenannte Crawler bzw. Robots),
  • Analyse dieser Dateien und das Hinzufügen der so gewonnenen Informationen in die Datenbank (auch Index genannt) sowie
  • Bearbeitung von Suchanfragen.

Metasuchmaschinen[Bearbeiten]

Metasuchmaschinen verfügen über keinen eigenen Index und sind im eigentlichen Sinne keine Suchmaschinen sondern nur Such-Helfer. Sie leiten die Suchanfrage an verschiedene Suchmaschinen weiter, zeigen dem Benutzer eine aufbereitete Auswahl der verschiedenen Suchmaschinenergebnisse und ermöglichen so ein effizienteres Suchen.

Webkataloge[Bearbeiten]

Webkataloge sind Webverzeichnisse in denen die aufgenommen Webseiten kategorisiert angezeigt werden. Sie sind sozusagen eine Sammlung von Adressen von Webseiten im World Wide Web, die nach bestimmten Themen sortiert sind. Der Nachteil dabei ist, dass die Pflege und Erweiterung der Verzeichnisse sehr zeitintensiv ist und die Qualität der gelisteten Webseiten von der Qualifikation des Redakteurs abhängig ist.

Social Bookmarks[Bearbeiten]

Social Bookmarks sind Internet-Lesezeichen, die in einem Netz mit Hilfe einer Browser-Oberfläche von verschiedenen Benutzern durch Gemeinschaftliches Indexieren erschlossen und mittels eines RSS-Feeds bereitgestellt werden. Sogenannte Social-Bookmark-Netzwerke können neben dem Sammeln von Links und Nachrichtenmeldungen auch zum Sammeln von Podcasts oder Videos konzipiert sein. Sie ähneln stark Webkatalogen. Die Einträge werden nicht von einer Redaktion gepflegt.

Quelle[Bearbeiten]

Ein anderes Merkmal zur Kategorisierung von Suchmaschinen ist die Quelle, aus der die von der Suchmaschine erfassten Daten stammen. Meistens beschreibt bereits der Name der Suchmaschinenart die Quelle.

  • Websuchmaschinen: erfassen Dokumente aus dem World Wide Web,
  • Usenetsuchmaschinen: Beiträge aus dem weltweit verteilten Diskussionsmedium Usenet.
  • Intranetsuchmaschinen: beschränken sich auf die Rechner des Intranets einer Firma.
  • Als Desktop-Suchmaschinen werden Programme bezeichnet, die den lokalen Datenbestand eines einzelnen Computers durchsuchbar machen.

Wird die Datenbeschaffung manuell mittels Anmeldung oder durch Lektoren vorgenommen, spricht man von einem Katalog oder Verzeichnis. In solchen Verzeichnissen wie dem Open Directory Project sind die Dokumente hierarchisch in einem Inhaltsverzeichnis nach Themen organisiert.

Technik und Funktion von Suchmaschinen[Bearbeiten]

Robots oder Spider nennt sich die Software, die Suchmaschinen benutzen, um Seiten zu indizieren. Robots erfahren über die Hyperlinks, wo die nächsten Seiten sind, deren Inhalte auf die Anfragen der Robots an die Suchmaschine übermittelt werden. Ein Robot stellt lediglich Anfragen, die ihm in Form übermittelter Daten beantwortet werden.

Populär sind bei Suchmaschinen zwei Wege, um Webseiten zu erfassen:

  • Anmelden des HTML-Dokuments auf der Anmeldeseite der Suchmaschine, manuell durch den Website-Betreiber oder von ihm beauftragte Dienstleister.
  • Verfolgen der Links angemeldeter Seiten nachdem sie von der Software erfasst und ausgewertet wurden, automatisch durch die Suchprogramme.

Zum Start einer Suchmaschine werden allerdings schon diverse Inhalte eingescannt, damit für die Nutzer bereits Inhalte vorhanden sind.

Ablauf einer Suchanfrage[Bearbeiten]

1.) In der Anmeldemaske der Suchmaschine werden HTML-Dokumente angemeldet

2.) Der Webserver dient als Schnittstelle zum Datenbankprogramm

3.) URL wird in den Indexer aufgenommen. Diverse Filter gegen Spam und gegen unsaubere Inhalte sorgen für aufbereitete Daten. Gesperrte Adressen werden ebenfalls ausgefiltert.

4.) Der Datensammler wird oft als Robot, Spider oder Crawler bezeichnet. Der Robot ist ein Programm, das Anfragen in das WWW an die Server des jeweiligen Hoster sendet. Startpunkt für Robots sind in der Regel URL-Listen, die dadurch entstehen, dass die Startseite einer Webpräsenz angemeldet wird. Ein Robot kann sehr viele Abfragen parallel ausführen.

5.) Der Webserver beantwortet die Abfrage. Mit einer speziellen Datei robots.txt und den robots Meta-Tags sollte jeder Betreiber einer Website bestimmen können, welche Robots auf seine Seiten zugreifen dürfen.

6.) Die angeforderte(n) Datei(en) wird übertragen.

7.) Die Daten werden vom Robot erfasst und zum Index weitergeleitet. Aus den Daten, die der Robot auf die Anfrage erhält, parst er die Links und alle für die Suchmaschine wichtigen Informationen. Er sendet weitere Anfragen an den Server und erhält als Antwort wiederum neue Daten.

8.) Das Indizierungsprogramm wertet die ihm übermittelten Daten aus. Es werden nur die Daten aufgenommen, die in der Datenbank eine entsprechende Rubrik bekommen. Der Inhalt eines Index wird durch seine Nutzer gestaltet.
Der unsichtbare Teil einer Webseite enthält Meta-Tags, die von vielen Suchmaschinen ausgewertet werden, Lycos beachtet diese Meta-Tags überhaupt nicht. Im Datenbestand von Fireball enthalten rund 19% der Webseiten den Meta-Tag "keywords".

9.) Das Datenbankprogramm verwaltet die Daten der Datenbank

10.) Wenn man eine Suchanfrage in die Eingabe-Maske eingibt wird die Anfrage in eine computerverwertbare Form umgewandelt und an die Datenbank übermittelt. Vorsicht Falle: Einige Suchmaschinen haben die UND-Suche voreingestellt, andere die ODER-Suche.

11.) Das Datenbankprogramm stellt gemäß der Anfrage die Suchergebnisse mit den Daten aus dem Index zusammen. Dabei werden die jeweiligen Rankingkriterien berücksichtigt.

12.) Ausgabe der Ergebnisse (Ranking). robots.txt ist kein Zugriffschutz, das heißt jeder interessierte Websurfer kann diese Datei mit dem Browser aufrufen. Die Datei verhindert lediglich, dass Informationen in die Indices (=Datenbasis) der Suchmaschinen gelangen, die dort nichts zu suchen haben. Datei robots.txt muss im Stammverzeichnis der Website liegen. Mit "Disallow" werden bestimmte Verzeichnisse (Ordner) für die Robots gesperrt

Finanzierung[Bearbeiten]

Suchmaschinen müssen ein überlebensfähiges Netzwerk aufbauen. Die Finanzierung einer Suchmaschine kann erfolgen durch:

  • die Nutzer
  • Werbung
  • Verkauf des Produktes
  • Börsengang


Webkataloge[Bearbeiten]

Allgemein[Bearbeiten]

Bei Webkatalogen handelt es sich um Verzeichnisse von verschiedenen Webseiten. Sie beinhalten verschiedene Themen bzw. Kategorien und Unterkategorien, denen die Seiten zugeordnet werden. Somit soll dem Benutzer das Finden von themenspezifischen Webseiten vereinfacht werden.

Geschichtliches[Bearbeiten]

Schon seit dem Beginn des Internets gibt es Webkataloge, sie konnten sich jedoch gegen die Suchmaschinen nicht durchsetzen. Man wollte alle Seiten des Internets in einen großen Katalog aufnehmen, wie die Bücher einer Bibliothek im Bibliothekskatalog. Das Internet entwickelte sich jedoch so schnell, dass diese Idee bald wieder verworfen wurde. Die ersten Kataloge waren erst viel erfolgreicher und beliebter als die Suchmaschinen, da man dort recht schnell die gewünschten Seiten finden konnte. Heute sind wieder die Suchmaschinen beliebter, weil diese viel schneller das Internet durchsuchen und Seiten finden.

Suchergebnisse[Bearbeiten]

Ein Webkatalog umfasst nicht sämtliche Seiten des Webs, sondern nur die, die sich in seiner Datenbank befinden. So fällt zwar das Suchergebnis geringer aus, jedoch auch übersichtlicher und erleichtert dem Benutzer die Entscheidung, da er nur wenige Entscheidungsmöglichkeiten hat. Er findet außerdem wirklich nur Webseiten, die zu seinem Suchbegriff passen. Modernere Webkataloge haben den Vorteil, dass sie direkt eine Suchmaschinenfunktion anbieten, sollte man innerhalb des Kataloges keine passenden Ergebnisse finden, da viele Webkataloge nicht alle Themen und Begriffe in ihrer Datenbank haben.

Suchvorgang[Bearbeiten]

In dem Katalog wählt man die interessante Kategorie und surft dann durch die vorausgesuchten Seiten. Auch eine Suche nach Begriffen in den Katalogen ist möglich. Man erhält jedoch meist keine einzelnen Seiten wie es bei einer Suchmaschine der Fall wäre, sondern eine Kategorie mit einigen ausgesuchten Seiten zu diesem Begriff.

Aufbau eines Webkataloges[Bearbeiten]

Die Kataloge sind meist redaktionell betreut und handverlesen, um eine gewisse Seriosität zu gewährleisten und den ganzen Tag werden Seiten in den Webkatalog eingetragen, um diesen immer interessanter und aktueller zu machen bzw. um so interessant und aktuell wie möglich zu bleiben. Die Kategorien und Rubriken werden vom Betreiber des Kataloges festgelegt. Es gibt im Gegensatz zu Suchmaschinen besondere Kriterien die vor der Freischaltung zu beachten sind. Dabei wird auf den Inhalt und die Qualität der Webkatalogeinträge Wert gelegt.

Das ist deshalb wichtig, weil es eine Vielzahl von Internetseiten gibt, die gegen verschiedene Rechte verstoßen oder inhaltlich völlig wertlos sind. Andere Seiten sind nur dazu da, Werbung einzubinden oder durch das Anklicken von Links Geld zu verdienen.

Eintragungen im Webkatalog[Bearbeiten]

Die Seiten können von den jeweiligen Webseitenbetreibern zu den Webkatalogen hinzugefügt werden. Dabei ist die URL, ein Titel und eine Kurzbeschreibung der Webseiteninhalte wichtig, die dem User oder Surfer Auskunft darüber gibt um was es sich inhaltlich auf der eingetragenen Webseite handelt, sowie die Keywords, mit denen die Seite im Webkatalog gefunden werden soll.

Pros[Bearbeiten]

Webkataloge sind wichtige Werkzeuge für das bekannt machen der eigenen Webseite. Trägt ein Webmaster seine Webseite in möglichst viele Webkataloge ein, besteht die Möglichkeit immer mehr Besucher für die eigene Webseite zu bekommen. Bei inzwischen vielen Webkatalogen bekommt der User sowie der Webmaster nützliche Informationen zu der eingetragenen Webseite. Es wird zum Beispiel angezeigt, welches Page Ranking die Webseite hat. Wie oft eine Webseite schon von anderen Usern angeklickt wurde und noch viele andere nützliche Informationen.

Doch die Hauptmotivation der Webmaster, ihre Webseite in möglichst viele Webverzeichnisse einzutragen, liegt an der Steigerung der Link-Popularität und eben an der Anzahl der inhaltsspezifischen Besucher der Webseite. Einige Suchmaschinen verbessern das Page Ranking der Webseite wenn diese in möglichst vielen Webkatalogen eingetragen ist. Je öfter ein Link auf einer Webseite erscheint, somit also "empfohlen" wird, desto wichtiger wird er gewertet und erscheint im Page Ranking von Suchmaschinen weiter oben. Hinzu kommt, dass nicht mehr einzig die eingetragene Seite gefunden wird, sondern auch die Einträge in den Webkatalogen, die auf die Seite verweisen.

Kontras[Bearbeiten]

Es gibt leider auch viele weniger gute Webkataloge. Das ist wahrscheinlich auch der Grund, weswegen sie nicht mehr so beliebt sind wie früher. Mittlerweile ist die Sinnhaftigkeit und Effizienz von Webkatalogen sogar ziemlich umstritten und viele sind der Meinung, dass man durch schlechte Link-"Nachbarschaft" sogar ein schlechteres Page-Ranking bekommt.

Qualitätsbeurteilung[Bearbeiten]

Um die Qualität halbwegs zu beurteilen, gibt es mittlerweile viele Webkatalogsübersichten: Wichtig bei der Auswahl von Webkatalogen, in die man die eigene Seite eintragen will, ist, dass keine Backlinks gefordert werden und auch, dass der Webkatalog suchmaschinenoptimiert ist, wie beispielsweise 1-cat.de. Zusätzlich sollte man darauf achten, dass der Anbieter des Webkatalogs kein Attribut "Rel=nofollow" einbaut, was dazu führen kann, dass der Verweis von Suchmaschinen komplett ignoriert wird. Dies gilt ebenfalls für die Berechnung des Page Rankings.

Beispiele für Webkatalogsübersichten

Beispiele für Webkataloge/Webverzeichnisse[Bearbeiten]

Yahoo

Als ein Beispiel wäre http://www.yahoo.de genannt. Die Meisten denken, yahoo sei eine Suchmaschine, doch es handelt sich bei yahoo tatsächlich um den ersten Webkatalog, also das erste Webverzeichnis überhaupt. David Filo und Jerry Yang sind die Gründer von yahoo und haben in ihrer Studienzeit im April 1994, eher spielerisch, eine Methode zum Sammeln ihrer Lieblings-Links entwickelt. Im selben Jahr noch entstand ein webbasiertes Verzeichnis inklusive Software. Der Mitbegründer von Netscape, Marc Andreessen, bot ihnen im Jahr darauf an, mit ihrem Verzeichnis auf einen größeren Computer bei Netscape umzuziehen und heute ist Yahoo weltweit das populärste Webverzeichnis. Das Wort "yahoo" ist eine Abkürzung und kommt von "Yet Another Hierarchical Officious Oracle" wortwörtlich übersetzt heißt das etwa: "Jetzt noch ein anderes, hierarchisches, aufdringliches Orakel". Bei Yahoo wird man, bei einer erfolglosen Suche im Katalog, automatisch zur Suchmaschine Google weitergeleitet.

ODP

Als ein weiteres Beipiel dient das ODP (Open Directory Project, http://odp.orp.de). Es ist weltweit das umfangreichste, öffentlich verfügbare Webverzeichnis an dem weltweit über 40 000 Editoren arbeiten. Träger sind Netscape und die Muttergesellschaft AOL Time Warner. Das ODP nennt sich anspruchsvoll das Gehirn des Web. Es wird wegen seiner offenen Lizenz weltweit vielfach genutzt, darunter prominente Suchdienste wie AOL, Google, Netscape, Lycos,... und viele andere. Es befinden sich zur Zeit mehr als 4 Millionen Seiten in über 460.000 Kategorien in diesem Verzeichnis.

Fazit[Bearbeiten]

Generell ist jedoch zu sagen, dass Webkataloge durchaus einen großen Nutzen für Webseitenbetreiber bringen können, aber auch für den nach bestimmten Themen suchenden Nutzer sind sie eine brauchbare Alternative zu einer Suchmaschine.

Metasuchmaschinen[Bearbeiten]

Allgemein[Bearbeiten]

Metasuchmaschinen verfügen über eine zentrale Eingabeseite. Es handelt sich um Programme oder Skripte, die verschiedene Suchserver, also Suchmaschinen und Webverzeichnisse, gleichzeitig ansprechen. In vielen Fällen wird dann eine übersichtliche Ergebnisseite mit allen Fundstellen präsentiert, gute Systeme geben auch die jeweiligen Platzierungen in den abgefragten Suchdiensten mit aus. In der generierten Liste muss die Platzierung neu bestimmt werden. Das sollte in Abhängigkeit der Häufigkeit des Vorkommens in anderen Suchdiensten und den dortigen Platzierungen erfolgen. Zusätzlich fragen Metasuchmaschinen auch andere Quellen ab, die für normale Suchmaschinen nicht zugänglich sind. Zum Beispiel Lexika, Telefonverzeichnisse, Nachrichtendienste, Enzyklopädien, Wörterbücher und ähnliches. Die Qualität der Ergebnisse kann gegenüber reinen Suchmaschinen höher sein, abhängig vom Suchbegriff.

Verwendung[Bearbeiten]

Für allgemeine Suchanfragen lassen sich Meta-Suchmaschinen gut verwenden, sowie für seltene und spezielle Begriffe und wenn vorherige Suchanfragen bei einzelnen Diensten keine Ergebnisse brachten. Für genauere und detailliertere Recherchen ist es besser, direkt in den abgefragten Quellen zu suchen. Bei der Abfrage mehrerer Suchdienste können natürlich Ergebnisse mehrfach vorkommen. Diese müssen zusammengefasst und in ihrer Gesamtheit gewertet werden. Ist beispielsweise eine Seite in drei Suchdiensten auf Platz eins, dann soll sie trotzdem nur einmal angezeigt werden.

Abfragezeit[Bearbeiten]

Die Suchzeit ist leider durch die vielen gleichzeitigen Abfragen zuweilen ziemlich lang. Jeder Suchdienst hat eine interne Abfragezeit und damit sich diese Zeiten nicht addieren, muss eine Metasuchmaschine zeitgleich abfragen können. Je mehr Ergebnisse abgefragt werden, um so länger dauert die Verarbeitung der Daten. Viele einfache Metasuchmaschinen liefern deshalb nur eine begrenzte Anzahl Treffer, damit die Nutzer nicht vor Ungeduld auf einen anderen Suchdienst ausweichen.

Aufbau[Bearbeiten]

Metasuchmaschinen verwalten keinen eigenen Datenbestand. Sie nehmen Suchergebnislisten von den einzelnen Suchmaschinen entgegen. Lag früher der Vorteil von Metasuchmaschinen darin, dass sie den Datenbestand von mehreren Suchmaschinen zusammengefasst haben und somit eine größere Abdeckung des durchsuchbaren Webs erreicht haben, punkten Metasuchmaschinen heute mit zusätzlichen Funktionen.

Suchergebnisse[Bearbeiten]

Einfluss der Seitengestaltung In den Ergebnislisten von Suchmaschinen werden nur Teile einer Webseite angezeigt. Das sind der Seitentitel und ein Kurztext. Der Kurztext wird generiert aus:

  1. Dem Meta-Tag Description oder
  2. Den ersten sichtbaren Zeichen (ca. 180 bis 250) des Seitentextes oder
  3. Direkt aus dem Volltext, einige Worte vor und nach dem Suchbegriff (Beispiel: Google)

Alle Angaben der Originalsuchmaschine sollen in der einheitlichen Ergebnisliste der Meta-Suchmaschine erscheinen.

Suchoptionen/-vorgang[Bearbeiten]

Es bestehen außerdem verschiedene Suchoptionen, die am Beispiel der Metasuchmaschine http://www.metacrawler.de näher erläutert werden können. Metacrawler verknüpt bei der Eingabe mehrerer Suchbegriffe diese Begriffe, dann werden alle Websites gefunden, in denen gleichzeitig alle eingegebenen Suchbegriffe vorkommen. Um spezifischer zu suchen, kann der Suchbegriff mit Zeichen erweitert werden. Möchte man zum Beispiel einen genauen Ausdruck aus mehreren Wörtern bestehend suchen, so setzt man den gesamten Ausdruck unter Anführungszeichen: " Es werden dann alle Websites gefunden, in denen der eingegebene Text in exakt dieser Schreibweise und Reihenfolge zu finden ist. Sinnvoll z.B. für die Suche nach bestimmten Namen, Produkten bzw. Firmen. Bei Metacrawler kann man mit der Option "internationale Seiten" auch nach anderssprachigen Seiten suchen, sucht man nur deutsche Seiten, belässt man einfach die Voreinstellung "deutsche Seiten".

Pro & Kontra[Bearbeiten]

Die Arbeit mit Meta-Suchmaschinen ermöglicht in einer größeren Zahl von Webseiten zu suchen, unterliegt jedoch Einschränkungen, da nicht im Volltext gesucht wird.

Nachteil dieser Metasuche ist es, dass meist keine erweiterte Suchkonfiguration möglich ist.

Beispiele für Metasuchmaschinen[Bearbeiten]

MetaGer - Die deutsche Metasuchmaschine

MetaGer http://www.MetaGer.de wurde an der Universität Hannover entwickelt. In den Bereichen "Rechnernetze und verteilte Systeme" (RVS) und "Regionales Zentrum für Informationsverarbeitung und Kommunikationstechnik" (RRZN) werden seit 1995 Suchmaschinen entwickelt und betrieben. MetaGer befindet sich in einer ständigen Entwicklung, um nicht irgendwann einmal als veraltet zu gelten. MetaGer bezeichnet sich als Kombination aus klassischem Suchdienst und Meta-Maschine.

MetaCrawler

Der Metacrawler http://www.Metacrawler.de wurde 1994 an der University of Washington von Erik Selberg und seinem Professor Oren Etzioni entwickelt um mehrere Suchmaschinen gleichzeitig abzufragen. Auf dem Gebiet der Suchmaschinen dürfte Metacrawler somit zu den Urgesteinen zählen. Lange gehörte Metacrawler zu den bekanntesten Suchmaschinen überhaupt. Einen starken Einbruch erlitt das Ansehen der Suchmaschine nach der Übernahme durch Infospace im Jahr 2000. Infospace ist ein Unternehmen das bekannte Suchmaschinenmarken aufkaufte.

Kartoo

Interessant ist auch diese Metasuchmaschine: http://www.kartoo.com. Sie bietet eine eingängige kartografische Visualisierung der Ergebnisse.

Fazit[Bearbeiten]

Suchmaschinen decken nur einen Teil des Internet ab. Im Wettkampf um den weltgrössten Index gibt es zwar immer neue Rekorde, doch das Web wächst unaufhörlich, die Kluft zwischen erfassten Webseiten und Suchmaschinenindizies wird immer grösser.

Quellenverzeichnis[Bearbeiten]