Zuvor in der Web-Geschichte…
Nach einem Zustrom rasanter Browser-Entwicklung nach der Erfindung des Webs wurde Mosaic zur beliebten Wahl. In Erkenntnis des kommerziellen Potenzials des Webs baute ein Team von O’Reilly GNN, die erste kommerzielle Website. Mit etwas zum Surfen und etwas zum Suchen begannen immer mehr Menschen, sich dem Web zuzuwenden. Viele erstellten kleine, persönliche Seiten. Das Beste, was das Web zu bieten hatte, wurde fast unmöglich zu finden.
eBay hatte die Nase voll von diesen Spiders. Sie wehrten sie zu Tausenden ab. Ihre Server summten vor Nonstop-Aktivität; ein unerbittlicher Strom von Eindringlingen. Ein Angreifer ragte jedoch über die anderen hinaus. Bidder’s Edge, das sich als Auktionsaggregator bezeichnete, durchforstete routinemäßig die Seiten von eBay, um dessen Inhalte zu extrahieren und auf seiner eigenen Website neben anderen Auktionsangeboten aufzulisten.
Die berühmte Auktionsseite hatte erfolglos versucht, Bidder’s Edge in der Vergangenheit zu blockieren. Wie ein aufwendiges Whac-A-Mole-Spiel beschränkten sie die IP-Adresse eines Bidder’s Edge-Servers, nur um erneut durch einen Proxy-Server mit einer neuen angegriffen zu werden. Die Technologie hatte versagt. Die Rechtsstreitigkeit war der nächste Schritt.
eBay reichte im Dezember 1999 Klage gegen Bidder’s Edge ein und führte eine Reihe von Gründen an. Dazu gehörte „eine alte Theorie des Hausfriedensbruchs, die Rechtswissenschaftlern als „trespass to chattels“ bekannt ist, im Grunde ein Hausfriedensbruch oder eine Störung von Privateigentum – Gegenständen, Tieren oder in diesem Fall Servern.“ eBay argumentierte also, dass Bidder’s Edge – im mittelalterlichsten Sinne dieses Wortes – in ihre Server eindrang. Damit dies als „trespass to chattels“ galt, musste eBay beweisen, dass die Eindringlinge Schaden verursachten. Dass ihre Server unter der Last zusammenbrachen, war ihrer Meinung nach ein Beweis für diesen Schaden.

Richter Ronald M. Whyte fand letzteres überzeugend. Es folgte einiges Hin und Her, in einem der seltsamsten Rechtsstreitigkeiten einer neuen Ära, in der der Ausdruck „unhöfliche Roboter“ in die offiziellen Gerichtsakten aufgenommen wurde. Diese Roboter – im Gegensatz zu den „höflichen“ – ignorierten die Bitten von eBay, das Crawling auf ihren Seiten zu blockieren, und unternahmen alle Anstrengungen, um Gegenmaßnahmen zu umgehen. Sie waren nach Einschätzung des Richters Eindringlinge. Whyte erließ eine einstweilige Verfügung, um Bidder’s Edge am Crawling von eBay zu hindern, bis alles geklärt war.
Mehrere Berufungen und Gegenklagen und Gegenberufungen später wurde die Angelegenheit beigelegt. Bidder’s Edge zahlte eBay einen nicht genannten Betrag und stellte umgehend seine Geschäftstätigkeit ein. eBay hatte diesen speziellen Kampf gewonnen. Sie hatten die Roboter losgeworden. Aber der eigentliche Krieg war bereits verloren. Die Roboter – ob unhöflich oder nicht – waren bereits da.
Ohne die Stanford University wäre die Websuche vielleicht verloren gegangen. Sie ist die Geburtsstätte von Yahoo!, Google und Excite. Sie betrieb die Server, die den Code ausführten, der die ersten Suchmaschinen antrieb. Die Gründer von Yahoo! und Google sind Alumni. Aber viele der prominentesten Akteure im Suchbereich waren nicht in der Informatikabteilung. Sie waren im Programm für symbolische Systeme.
Symbolische Systeme wurden 1985 in Stanford als Studie über die „Beziehung zwischen natürlichen und künstlichen Systemen, die Informationen darstellen, verarbeiten und darauf handeln“ eingerichtet. Ihr interdisziplinärer Ansatz wurzelt an der Schnittstelle mehrerer Bereiche: Linguistik, Mathematik, Semiotik, Psychologie, Philosophie und Informatik.
Dies sind dieselben Studienbereiche, die man in der zweiten Hälfte des 20. Jahrhunderts im Zentrum der Forschung im Bereich der künstlichen Intelligenz finden würde. Aber dies ist nicht die KI in ihrer modernen Smart-Home-Manifestation, sondern in der klassischeren Vorstellung, die von Informatikern als Fahrplan für die Zukunft der Computertechnologie konzipiert wurde. Es ist das Verständnis von Maschinen als Mittel zur Erweiterung des menschlichen Geistes. Diese Parallele ist kein Zufall. Einer der wichtigsten Studienbereiche im Programm für symbolische Systeme ist künstliche Intelligenz.
Unter den Alumni des Programms finden sich mehrere Gründer von Excite und Srinija Srinivasan, die vierte Mitarbeiterin bei Yahoo!. Ihre Arbeit im Bereich künstliche Intelligenz führte sie direkt nach dem Studium zu einer Position im ambitionierten KI-Forschungslabor Cyc.
Marisa Mayer, eine frühe Mitarbeiterin bei Google und später CEO von Yahoo!, zog ebenfalls KI-Forschung während ihrer Zeit im Programm für symbolische Systeme heran. Ihr bahnbrechendes Abschlussprojekt nutzte natürliche Sprachverarbeitung, um Benutzern zu helfen, die besten Flüge durch ein einfaches Gespräch mit einem Computer zu finden. „Man schaut sich an, wie Menschen lernen, wie sie denken, und bittet einen Computer, dasselbe zu tun. Es ist, als würde man das Gehirn studieren, ohne das Gemetzel“, sagte sie später über das Programm.

Die Suche im Web hat ihren Ursprung in diesem einen Programm an einer Institution zu einem kurzen Zeitpunkt. Nicht jeder, der an Suchmaschinen beteiligt war, hat dieses Programm studiert – die Gründer von Yahoo! und Google waren beispielsweise Doktoranden der Informatik. Aber die Ideologie der Suche ist tief in der Tradition der künstlichen Intelligenz verwurzelt. Das Ziel der Suche ist es schließlich, eine Frage aus dem Gehirn zu extrahieren und Maschinen zu nutzen, um eine passende Antwort zu liefern.
Bei Yahoo! dienten die Prinzipien der künstlichen Intelligenz als Leitfaden, aber sie wurden durch menschliche Perspektive ergänzt. Web-Crawler wie Excite trugen die Last der Benutzeranfragen und versuchten, Websites programmatisch abzubilden, um intelligente Ergebnisse zu liefern.
Bei Google wurde KI jedoch zu einem ausdrücklich formulierten Ziel. Steven Levy, der das maßgebliche Buch über die Geschichte von Google, In the Plex, beschreibt Google als ein „Vehikel zur Verwirklichung des Traums von künstlicher Intelligenz zur Erweiterung der Menschheit.“ Die Gründer Larry Page und Sergey Brin erwähnten KI ständig. Sie sprachen sie sogar bei ihrer ersten Pressekonferenz an.
Der Unterschied war eine Frage der Herangehensweise. Eine Spannung, die ein halbes Jahrzehnt lang die Suche beherrschen würde. Das Verzeichnis versus der Crawler. Die Präzision menschlichen Einflusses gegenüber der Vollständigkeit von Maschinen. Surfer würden auf der einen Seite stehen und Spiders auf der anderen. Nur einer würde überleben.
Die ersten Spiders waren grob. Sie tasteten im Dunkeln herum, bis sie den Rand des Webs fanden. Dann kehrten sie nach Hause zurück. Manchmal sammelten sie kleine Informationsstücke über die von ihnen durchsuchten Websites. Anfangs sammelten sie gar nichts.
Einer der frühesten Web-Crawler wurde am MIT von Matthew Gray entwickelt. Er nutzte seinen World Wide Wanderer, um jede Website im Web zu finden. Er interessierte sich nicht für den Inhalt dieser Seiten, er wollte sie lediglich zählen. Als er seinen Crawler im Sommer 1993 zum ersten Mal aussandte, erreichte er 130. Ein Jahr später zählte er 3.000. Bis 1995 stieg diese Zahl auf knapp 30.000.
Wie viele seiner Kollegen im Suchmaschinen-Geschäft war Gray ein Schüler der Informationsgewinnung (Information Retrieval), einer Teildisziplin der Informatik, die sich dem Wissensaustausch widmet. In der Praxis umfasst die Informationsgewinnung oft einen Roboter (auch bekannt als „Spiders, Crawlers, Wanderers und Worms“), der digitale Dokumente durchsucht und deren Inhalte programmatisch sammelt. Diese werden dann analysiert und in einem zentralen „Index“ gespeichert, einer Abkürzung, die die Notwendigkeit beseitigt, jedes Dokument bei jeder Suche erneut zu durchsuchen. Die Aktualisierung dieses Index ist ein ständiger Kampf, und Roboter müssen wachsam sein; sie müssen fast ständig zurückkehren und Informationen erneut durchsuchen.
Das World Wide Web stellte ein problematisches Rätsel dar. Anstelle einer vorhersehbaren Menge von Dokumenten konnte eine theoretisch unendliche Anzahl von Websites im Web existieren. Diese mussten in einem zentralen Index gespeichert werden – der irgendwie aktuell gehalten werden musste. Und am wichtigsten war, dass der Inhalt dieser Seiten mit dem, wonach jemand suchte, auf die Schnelle und in Sekundenschnelle verbunden werden musste. Die Herausforderung erwies sich für einige Forscher und Akademiker im Bereich der Informationsgewinnung als unwiderstehlich. Leute wie Jonathan Fletcher.
Fletcher, ein ehemaliger Absolvent und IT-Mitarbeiter der University of Stirling in Schottland, mochte es nicht, wie schwierig es war, Websites zu finden. Damals verließen sich die Leute auf manuelle Listen, wie die WWW Virtual Library, die am CERN gepflegt wurde, oder die Liste von Mosaic mit den „What’s New“, die sie täglich aktualisierten. Fletcher wollte es anders handhaben. „Mit einem Abschluss in Informatik und der Idee, dass es einen besseren Weg geben musste, beschloss ich, etwas zu schreiben, das für mich nachsehen würde.“
Er baute 1993 Jumpstation, eines der frühesten Beispiele für einen durchsuchbaren Index. Sein Crawler durchsuchte so viele Links wie möglich und brachte sie zu einer durchsuchbaren, zentralen Datenbank zurück. Dann begann er von vorne. Um das Problem der grenzenlosen Weite des Webs zu lösen, begann Fletcher damit, nur die Titel und einige Metadaten jeder Webseite zu durchsuchen. Das hielt seinen Index relativ klein, schränkte die Suche aber auf die Titel von Seiten ein.
Fletcher war nicht allein. Nach monatelangem Basteln startete WebCrawler im April 1994 an der University of Washington. Er hält die Auszeichnung, die erste Suchmaschine zu sein, die ganze Webseiten durchsucht und sie durchsuchbar macht. Bis November desselben Jahres hatte WebCrawler 1 Million Anfragen bearbeitet. An der Carnegie Mellon veröffentlichte Michael Maudlin seine eigene spinnenbasierte Suchmaschinenvariante mit dem Namen Lycos, der lateinischen Übersetzung für Wolfsspinne. Bis 1995 hatte sie über eine Million Webseiten indiziert.

Die Suche blieb nicht lange an den Universitäten. Suchmaschinen hatten eine einzigartige Nützlichkeit für verirrte Webnutzer auf der Suche nach der perfekten Seite. Viele Nutzer begannen ihre Websitzungen auf einer Suchmaschine. Netscape Navigator – der Browser Nr. 1 für neue Webnutzer – verband die Nutzer direkt mit Suchmaschinen auf seiner Homepage. Von Netscape gelistet zu werden bedeutete Augen. Und Augen bedeuteten lukrative Werbeverträge.
In der zweiten Hälfte der 1990er Jahre traten eine Reihe von wichtigen Akteuren in den Suchmaschinenmarkt ein. InfoSeek, anfangs eine kostenpflichtige Suchoption, wurde von Disney übernommen und wurde bald zur Standard-Suchmaschine für Netscape. AOL sprang ein und erwarb WebCrawler als Teil einer kühnen Strategie, um auf dem Web wettbewerbsfähig zu bleiben. Lycos wurde von einem Risikokapitalgeber gekauft, der es in ein voll kommerzielles Unternehmen verwandelte.
Excite.com, ein weiterer Crawler, der von Stanford-Alumni gestartet wurde und ein aufsteigender Stern im Suchmaschinen-Geschäft für die Tiefe und Genauigkeit seiner Ergebnisse war, wurde kurz nach dem Start für drei Millionen Dollar angeboten. Seine sechs Mitbegründer stellten zwei Sofas nebeneinander und diskutierten die ganze Nacht. Sie beschlossen, am Produkt festzuhalten und einen neuen CEO einzustellen. Es sollten noch viele Millionen verdient werden.

AltaVista, Ende 1995 bereits etwas spät dran, wurde von der Digital Equipment Corporation entwickelt. Sie wurde ursprünglich entwickelt, um die Rechenleistung von DEC-Computern zu demonstrieren. Sie erkannten schnell, dass ihr Multithreaded-Crawler in der Lage war, Websites mit einer weitaus schnelleren Rate als ihre Konkurrenten zu indizieren. AltaVista setzte routinemäßig seine Crawler ein – was ein Forscher als eine „Brut von Spinnen“ bezeichnete – um Tausende von Seiten gleichzeitig zu indizieren.
Infolgedessen war AltaVista in der Lage, praktisch das gesamte Web zu indizieren, fast 10 Millionen Webseiten beim Start. Bis zum folgenden Jahr, 1996, indizierten sie über 100 Millionen. Aufgrund der Effizienz und Leistung ihrer Maschinen konnte AltaVista das Skalierbarkeitsproblem lösen. Im Gegensatz zu einigen ihrer Vorgänger konnten sie den vollständigen Inhalt von Websites durchsuchbar machen, und sie durchsuchten Websites alle paar Wochen neu, ein wesentlich schnelleres Tempo als frühe Konkurrenten, die Monate für die Aktualisierung ihres Index benötigten. Sie setzten den Standard für Tiefe und Umfang von Web-Crawlern.

Niemals ganz in Ruhe, nutzte AltaVista seine Suchmaschine als Werkzeug für Innovation und experimentierte mit natürlicher Sprachverarbeitung, Übersetzungswerkzeugen und mehrsprachiger Suche. Sie waren oft ihrer Zeit voraus und boten Video- und Bildersuche Jahre an, bevor dies zu einer erwarteten Funktion wurde.
Die Spiders, die nicht vom Rausch mitgerissen wurden, konnten nicht mithalten. Die Universitäten, die die ersten Suchmaschinen beherbergten, waren überhaupt nicht erfreut darüber, ihre Internetverbindungen mit Traffic zu belasten, der nicht einmal mit der Universität zusammenhing. Die meisten Universitäten zwangen die ersten experimentellen Suchmaschinen wie Jumpstation, den Betrieb einzustellen. Außer eben in Stanford.
Die Geschichte von Stanford mit technologischer Innovation beginnt in der zweiten Hälfte des 20. Jahrhunderts. Die Universität stand damals am Rande des Abgrunds, kurz davor, eine zweitklassige Institution zu werden. Sie hatten an Boden und lukrative Verträge an ihre Konkurrenten an der Ostküste verloren. Harvard und MIT wurden nach dem Zweiten Weltkrieg zu Zentren eines Forschungsbooms. Stanford blieb zurück.
Im Jahr 1951, um die Talfahrt umzukehren, vermittelte der Dekan der Ingenieurwissenschaften Frederick Terman eine Vereinbarung mit der Stadt Palo Alto. Die Stanford University stimmte der Eingemeindung von 700 Hektar Land für einen neuen Industriepark zu, den aufstrebende Unternehmen in Kalifornien nutzen konnten. Stanford würde die Nähe zu energischer Innovation erhalten. Die Unternehmen, die sich dort ansiedeln würden, erhielten einzigartigen Zugang zur Studentenschaft von Stanford für die Produktentwicklung. Und die Stadt Palo Alto würde neue Steuereinnahmen erhalten.
Hewlett-Packard war eines der ersten Unternehmen, das einzog. Sie läuteten eine neue Ära der computerorientierten Industrie ein, die bald als Silicon Valley bekannt werden sollte. Der Stanford Research Park (später Stanford Industrial Park genannt) beherbergte später Xerox in einer Zeit schnellen Erfolgs und Experimentierens. Facebook würde dort seine frühen Jahre verbringen und zu dem Koloss heranwachsen, der es heute ist. Im Zentrum von allem stand Stanford.
Der Forschungspark verwandelte die Universität von einer Stagnation zu einem Zentrum für Unternehmertum und Spitzentechnologie. Er brachte sie ins Herz der Tech-Industrie. Stanford verankerte sich – sowohl logistisch als auch finanziell – in den entscheidenden technologischen Entwicklungen der zweiten Hälfte des 20. Jahrhunderts, darunter das Internet und das World Wide Web.
Das potenzielle Erfolgspotenzial von Yahoo! blieb daher nicht unbemerkt.
Jerry Yang und David Filo sollten nicht an Yahoo! arbeiten. Sie sollten jedoch zusammenarbeiten. Sie hatten sich vor Jahren kennengelernt, als David Jerrys Lehrassistent im Informatikprogramm von Stanford war. Yang wurde später als Doktorand bei Filo aufgenommen und – nach dem Aufbau einer starken Beziehung – fanden sie sich bald bei einem gemeinsamen Projekt wieder.
Als sie sich in einem Universitätsanhänger zusammenpferchten, um mit ihrem Doktorprojekt zu beginnen, wurde ihre Beziehung zu dem, was Yang oft als perfekt ausbalanciert beschrieben hat. „Wir sind beide extrem tolerant zueinander, aber extrem kritisch gegenüber allem anderen. Wir sind beide extrem stur, aber sehr unbeständig, wenn es darum geht, zu verstehen, wohin wir gehen müssen. Wir geben uns den Raum, den wir brauchen, helfen uns aber auch, wenn wir ihn brauchen.“
1994 zeigte Filo Yang das Web. In einem einzigen Moment verschob sich ihr Fokus. Sie schoben ihre beabsichtigte Informatik-These beiseite und prokrastinierten, indem sie sich in die Tiefen des World Wide Web vertieften. Tage wurden zu Wochen, Wochen wurden zu Monaten des Surfens im Web und des Austauschens von Links. Die beiden beschlossen schließlich, ihre Listen an einem einzigen Ort zusammenzufassen, einer Website, die über ihre Stanford-Internetverbindung gehostet wurde. Sie hieß Jerry and David’s Guide to the World Wide Web, wurde 1993 zuerst für Stanford-Studenten und dann im Januar 1994 für die Welt veröffentlicht. So einprägsam wie dieser Name auch nicht war, die Idee (und der Traffic) schlug ein, als Freunde sie mit anderen Freunden teilten.
Jerry and David’s Guide war ein Verzeichnis. Ähnlich wie die 1993 am CERN begonnene virtuelle Bibliothek organisierten Yang und Filo Websites in verschiedene von ihnen spontan erfundene Kategorien. Einige dieser Kategorien hatten seltsame oder anrüchige Namen. Andere waren genau das, was man erwarten würde. Wenn eine Kategorie zu groß wurde, teilten sie sie auf. Es war Ad-hoc und unbeholfen, aber nicht ohne Charme. Durch ihre Klassifizierungen hatten Yang und Filo ihrer Website eine Persönlichkeit verliehen. Ihre Persönlichkeit. In späteren Jahren würde Yang dies oft als die „Stimme von Yahoo!“ bezeichnen.
Diese Stimme wurde zu einem Leitfaden – wie der ursprüngliche Name der Website andeutete – für neue Nutzer des Webs. Ihre Web-Crawling-Konkurrenten waren weitaus geschickter darin, Millionen von Seiten gleichzeitig zu indizieren. Yang und Filos Website bot nur einen kleinen Teil des Webs. Aber es war, zumindest nach ihrer Einschätzung, das Beste, was das Web zu bieten hatte. Es war das coole Web. Es war auch ein Web, das weitaus einfacher zu navigieren war als je zuvor.

Ende 1994 benannten Yang und Filo ihre Website in Yahoo! um (eine umständliche erzwungene Abkürzung für Yet Another Hierarchical Officious Oracle). Bis dahin erhielten sie fast hunderttausend Treffer pro Tag, was manchmal den Internetzugang von Stanford vorübergehend lahmlegte. Die meisten anderen Universitäten hätten die Website geschlossen und sie zur Rückkehr zur Arbeit angehalten. Aber nicht Stanford. Stanford hatte Jahrzehnte damit verbracht, sich auf Unternehmen auf dem Campus wie dieses vorzubereiten. Sie ließen den Server laufen und ermutigten seine Schöpfer, ihren eigenen Weg im Silicon Valley zu gehen.
Während des gesamten Jahres 1994 war Yahoo! in Netscape Navigator enthalten. Es gab einen Button in der Symbolleiste mit der Bezeichnung „Net Directory“, der direkt zu Yahoo! führte. Marc Andreessen, der an die Zukunft der Website glaubte, stimmte zu, ihre Website auf den Servern von Netscape zu hosten, bis sie auf stabilen Boden kamen.

Yang und Filo krempelten die Ärmel hoch und begannen, mit Investoren zu sprechen. Das sollte nicht lange dauern. Bis zum Frühjahr 1996 hatten sie einen neuen CEO und hielten ihren eigenen Rekord-IPO, der sogar ihren großzügigen Gastgeber Netscape übertraf. Bis dahin waren sie mit Abstand das beliebteste Ziel im Web.
In der Zwischenzeit war das Web weit über die Reichweite zweier Freunde, die Links austauschten, hinausgewachsen. Sie hatten es geschafft, Zehntausende von Websites zu kategorisieren, aber es gab noch Hunderttausende mehr zu durchsuchen. „Ich stelle mir Jerry Yang als Charlie Chaplin in Modern Times vor“, beschrieb ein Journalist, „konfrontiert mit einem endlosen Strom neuer Arbeit, die nur noch schneller wird.“ Die Aufgabe der Organisation von Websites musste jemand anderem überlassen werden. Yang und Filo fanden Hilfe bei einer Kommilitonin aus Stanford, die sie vor Jahren im Ausland in Japan kennengelernt hatten, Srinija Srinivasan, einer Absolventin des Programms für symbolische Systeme. Viele der frühesten Mitarbeiter von Yahoo! erhielten leicht absurde Titel, die alle auf „Yahoo!“ endeten. Yang und Filo nannten sich Chief Yahoos. Srinivasan's Jobtitel war Ontological Yahoo.
Das ist ein bewusster und präziser Jobtitel und wurde nicht zufällig gewählt. Ontologie ist die Lehre vom Sein, ein Versuch, die Welt in ihre Bestandteile zu zerlegen. Sie hat sich in vielen Traditionen im Laufe der Geschichte und der Welt manifestiert, ist aber am engsten mit den Anhängern von Sokrates, dem Werk von Platon und später dem bahnbrechenden Text Metaphysik von Aristoteles verbunden. Die Ontologie stellt die Frage „Was existiert?“ und nutzt sie als Gedankenexperiment, um eine Ideologie des Seins und der Essenz zu konstruieren.
Als Computer auf den Markt kamen, fand die Ontologie im aufkommenden Feld der künstlichen Intelligenz eine neue Bedeutung. Sie wurde angepasst, um den formelleren hierarchischen Kategorisierungen zu entsprechen, die erforderlich sind, damit eine Maschine die Welt sehen kann; um über die Welt nachzudenken. Ontologie wurde zu einer grundlegenden Methode, um zu beschreiben, wie intelligente Maschinen Dinge in Kategorien zerlegen und Wissen teilen.
Die gegensätzlichen Definitionen der Ontologie der Metaphysik und der Informatik wären Srinija Srinivasan aus ihrer Zeit in Stanford vertraut gewesen. Die Kombination von Philosophie und künstlicher Intelligenz in ihren Studien gab ihr eine einzigartige Perspektive auf hierarchische Klassifizierungen. Es war diese Erfahrung, die sie zu ihrem ersten Job nach dem Studium beim Cyc Project mitbrachte, einem KI-Forschungslabor mit einem kühnen Projekt: einem Computer den gesunden Menschenverstand beizubringen.

Bei Yahoo! war ihre Aufgabe nicht weniger kühn. Wenn jemand auf der Website nach etwas suchte, wollte er keine zufällige Liste relevanter Ergebnisse zurückbekommen. Er wollte das Ergebnis, das ihm tatsächlich durch den Kopf ging, aber nicht ganz beschreiben konnte. Yahoo! musste – in Sekundenschnelle – herausfinden, was seine Nutzer wirklich wollten. Ähnlich wie bei ihrer Arbeit im Bereich künstliche Intelligenz musste Srinivasan Yahoo! beibringen, wie man eine Anfrage denkt und die richtigen Ergebnisse ableitet.
Dazu musste sie die Stimme von Yahoo! auf Tausende weitere Websites in Dutzenden von Kategorien und Unterkategorien ausweiten, ohne den von Jerry und David etablierten Blickwinkel zu verlieren. Sie musste diese Perspektive skalieren. „Dies ist keine oberflächliche Aktenverwaltung. Dies ist die Definition der Natur des Seins“, sagte sie einmal über ihr Projekt. „Kategorien und Klassifizierungen sind die Grundlage für unsere jeweiligen Weltanschauungen.“
Mit stetigem Tempo bildete sie eine Ontologie der menschlichen Erfahrung auf der Website ab. Sie begann, die provisorischen Kategorien, die sie von den Erstellern der Website übernommen hatte, aufzubrechen und sie in konkretere und leichter zu findende Indizes zu reorganisieren. Sie erstellte neue Kategorien und zerstörte alte. Sie unterteilte bestehende Themen in neue, präzisere. Sie begann, Ergebnisse zu verknüpfen, sodass sie in mehreren Kategorien leben konnten. Innerhalb weniger Monate hatte sie die Website mit einer neuen Hierarchie überarbeitet.
Diese hierarchische Ontologie war jedoch lediglich ein Leitfaden. Die Stärke der Expansion von Yahoo! lag in den rund 50 Content-Managern, die sie in der Zwischenzeit eingestellt hatte. Sie waren als Surfer bekannt. Ihre Aufgabe war es, das Web zu surfen – und es zu organisieren.
Jeder Surfer wurde in der Methodik von Yahoo! geschult, erhielt aber überraschend viel redaktionelle Freiheit. Sie pflegten das Verzeichnis mit ihren eigenen Interessen und überlegten sorgfältig Websites und deren Platzierung. Jede Entscheidung konnte anstrengend sein, und es gab Fehltritte und falsch kategorisierte Elemente auf dem Weg. Aber indem sie individueller Persönlichkeit die Entscheidungen über die Hierarchie überließen, behielt Yahoo! seine Stimme bei.
Sie sammelten so viele Seiten wie möglich und fügten täglich Hunderte hinzu. Yahoo!-Surfer zeigten ihren Besuchern nicht alles im Web. Sie zeigten ihnen, was cool war. Und das bedeutete alles für Benutzer, die zum allerersten Mal begriffen, was das Web leisten konnte.
Ende 1995 beobachtete die Yahoo!-Mitarbeiterschaft ihren Traffic genau. Gedrängt um Konsolen, überprüften die Angestellten immer wieder ihre Protokolle, auf der Suche nach einem Besucherrückgang. Yahoo! war jahrelang das Ziel des „Internet Directory“-Buttons auf Netscape gewesen. Es war die Quelle ihres Wachstums und Traffics. Netscape hatte in letzter Minute (und scheinbar willkürlich) beschlossen, Yahoo! fallen zu lassen und sie durch die neuen Jungs im Block, Excite.com, zu ersetzen. Im besten Fall ein beherrschbarer Rückgang. Im schlimmsten Fall der Niedergang von Yahoo!.
Aber der Rückgang blieb aus. Ein Tag verging, dann noch einer. Und dann eine Woche. Und dann ein paar Wochen. Und Yahoo! blieb die beliebteste Website. Tim Brady, einer der ersten Mitarbeiter von Yahoo!, beschreibt den Moment mit aufrichtiger Überraschung. „Es war, als würde uns innerhalb von zwei Tagen der Boden unter den Füßen weggezogen, und wir standen immer noch. Wir sahen uns um, warteten in vielerlei Hinsicht darauf, dass alles zusammenbrach. Und wir dachten nur, ich schätze, wir sind jetzt auf uns allein gestellt.“
Netscape würde seinen Verzeichnis-Button nicht lange exklusiv behalten. Bis 1996 begann es anderen Suchmaschinen zu erlauben, in der „Suchfunktion“ seines Browsers gelistet zu werden. Ein Benutzer konnte auf einen Button klicken und eine Dropdown-Liste mit Optionen erschien gegen Gebühr. Yahoo! kaufte sich wieder in das Dropdown-Menü ein. Ihnen schlossen sich vier weitere Suchmaschinen an: Lycos, InfoSeek, Excite und AltaVista.
Bis dahin war Yahoo! der unangefochtene Marktführer. Es hatte seinen First-Mover-Vorteil in eine neue Strategie umgewandelt, die durch einen erfolgreichen Börsengang und einen Zustrom neuer Investitionen gestärkt wurde. Yahoo! wollte viel mehr als nur eine einfache Suchmaschine sein. Die Transformation seiner Website würde schließlich als Portal bezeichnet werden. Es war ein zentraler Ort für jeden erdenklichen Bedarf im Web. Durch eine Reihe von Produkterweiterungen und aggressiven Übernahmen veröffentlichte Yahoo! eine neue Suite von Marken-Digitalprodukten. Müssen Sie eine E-Mail senden? Probieren Sie Yahoo! Mail. Möchten Sie eine Website erstellen? Es gibt Yahoo! Geocities. Möchten Sie Ihren Zeitplan verfolgen? Nutzen Sie Yahoo! Kalender. Und so ging die Liste weiter.

Konkurrenten drängten, um das Vakuum des #2-Slots zu füllen. Im April 1996 gingen Yahoo!, Lycos und Excite mit steigenden Aktienkursen an die Börse. Infoseek folgte wenige Monate später mit seinem Börsengang. Große Deals trafen auf kühne Zukunftspläne. Excite begann, sich als lebendigere Alternative zu Yahoo! mit genaueren Suchergebnissen aus einem größeren Teil des Webs zu positionieren. Lycos wiederum gab die Suchmaschine, die ihnen anfänglichen Erfolg gebracht hatte, fast auf, um dem Portal-basierten Spielplan nachzujagen, der für Yahoo! ein Segen gewesen war.
Die Medien nannten den Wettbewerb die „Portal-Kriege“, einen flüchtigen Moment in der Web-Geschichte, als Millionen von Dollar in eine einzige Strategie flossen. Das größte, beste, zentralisierte Portal für Web-Surfer zu sein. Jede Dienstleistung, die den Nutzern ein Ziel im Web bot, wurde in die Arena geworfen. Nichts weniger als die Zukunft des Webs (und eine Milliarden-Dollar-Werbeindustrie) stand auf dem Spiel.
In gewisser Weise waren die Portal-Kriege jedoch vorbei, bevor sie begannen. Als Excite eine riesige Fusion mit @Home, einem Internetdienstanbieter, ankündigte, um ihre Dienste zu kombinieren, hielten nicht alle, dass dies ein kluger Schachzug sei. „AOL und Yahoo! waren bereits führend“, bemerkte ein Investor und Branchenveteran im Kabelbereich, „und es gab keinen Platz für ein Portal an dritter Stelle.“ AOL hatte gerade genug Muskelkraft und Einfluss, um sich auf den zweiten Platz zu drängen und Yahoo! im Nacken zu sitzen. Alle anderen mussten sich mit Goliath messen. Keiner konnte es jemals schaffen.
Bei ihrem Kampf um die Marktdominanz hatten die meisten Suchmaschinen die Suche einfach aus den Augen verloren. Irgendwo neben Ihrer E-Mail, Ihrem Börsenticker und Ihrem Sport-Feed begraben, war in den meisten Fällen eine zweitklassige Suchmaschine, die Sie nutzen konnten, um Dinge zu finden – nur nicht oft und nicht gut. Deshalb war es so erfrischend, als eine weitere Suchmaschine aus Stanford mit nur einem Suchfeld und zwei Schaltflächen gestartet wurde, ihr helles und mehrfarbiges Logo ganz oben angebracht.
Wenige Jahre nach dem Start gehörte Google zur engeren Wahl der beliebtesten Seiten. In einem Interview mit PBS Newshour im Jahr 2002 beschrieb Mitbegründer Larry Page ihre langfristige Vision. „Und tatsächlich, die ultimative Suchmaschine, die genau verstehen würde, was Sie wollten, wenn Sie eine Anfrage eingeben, und Ihnen genau das Richtige zurückgeben würde, das nennen wir in der Informatik künstliche Intelligenz.“
Google hätte überall beginnen können. Es hätte mit allem beginnen können. Ein Mitarbeiter erinnert sich an ein frühes Gespräch mit den Gründern, bei dem er sagte: „Wir interessieren uns nicht wirklich für die Suche. Wir machen eine KI.“ Larry Page und Sergey Brin, die Schöpfer von Google, versuchten nicht, die beste Suchmaschine des Webs zu erstellen. Sie versuchten, die intelligenteste Website des Webs zu erstellen. Die Suche war nur ihr logischster Ausgangspunkt.
Ungenau und ungeschickt, die spinnenbasierten Suchmaschinen von 1996 hatten einen schweren Stand. AltaVista hatte bewiesen, dass das gesamte Web, zig Millionen von Webseiten, indiziert werden konnte. Aber wenn man sich nicht mit einigen Booleschen Logikbefehlen auskannte, war es schwierig, den Computer dazu zu bringen, die richtigen Ergebnisse zu liefern. Die Roboter waren noch nicht bereit, nach Page's Worten, "genau das zu erfassen, was Sie wollten".
Yahoo! hatte diese Lücken in der Technologie mit seinen Surfern gefüllt. Die Surfer konnten die Computer korrigieren und ihr Verzeichnis Stück für Stück aufbauen, anstatt sich auf einen Algorithmus zu verlassen. Yahoo! wurde zum Schiedsrichter einer bestimmten Art von Online-Chic; Geschmacksbildner, die für das Informationszeitalter neu erfunden wurden. Die Surfer von Yahoo! setzten Trends, die Jahre andauern würden. Ihre Website konnte durch ihre Hand leben oder sterben. Maschinen konnten diese Arbeit nicht von alleine erledigen. Wenn Sie wollten, dass Ihre Maschinen intelligent sind, brauchten Sie Menschen, die sie leiten.
Page und Brin waren anderer Meinung. Sie glaubten, dass Computer das Problem durchaus bewältigen könnten. Und sie hatten es sich zum Ziel gesetzt, das zu beweisen.
Dieses unerschütterliche Selbstvertrauen würde Google weit mehr definieren als ihr Motto "Don't be evil". Anfangs würde ihr Laserfokus auf die Gestaltung einer anderen Zukunft für das Web sie blind für den alltäglichen Trott der Gegenwart machen. Nicht einmal, sondern zweimal wurden Schecks über Hunderttausende von Dollar, die an das Unternehmen ausgestellt wurden, in Schreibtischschubladen oder Kofferräumen liegen gelassen, bis jemand endlich Zeit fand, sie einzuzahlen. Und sie machten die Dinge oft anders. Die Büros von Google wurden zum Beispiel so gestaltet, dass sie ein Studentenwohnheim simulierten, eine Umgebung, die die Gründer für große Ideen am förderlichsten hielten.
Google würde schließlich ein buchstäbliches Imperium auf einer hochentwickelten, erstklassigen Infrastruktur eigener Konstruktion aufbauen, angetrieben von dem aufwendigsten und komplexesten (und wohl invasivsten) Werbemechanismus, der je gebaut wurde. Es gibt nur wenige Unternehmen, die so groß sind wie Google. Dieses hier begann, wie andere auch, in Stanford.
Selbst unter den renommiertesten Experten für künstliche Intelligenz sticht Terry Winograd, ein Informatiker und Professor in Stanford, aus der Menge heraus. Er war auch Larry Pages Berater und Mentor, als dieser ein Doktorand am Institut für Informatik war. Winograd erinnerte sich oft an die unorthodoxen und einzigartigen Vorschläge, die er von Page für sein Dissertationsthema erhielt, einige davon beinhalteten "Weltraumkabel oder Sonnensegel". "Es war mehr Science-Fiction als Informatik", bemerkte er später.
Aber bei all seinen fantastischen Gedankensprüngen kehrte Page immer wieder zum World Wide Web zurück. Er fand seine Hyperlink-Struktur faszinierend. Seine Einweg-Links – eine entscheidende Zutat für den Erfolg des Webs – hatten zu einer kolossalen Verbreitung neuer Websites geführt. Im Jahr 1996, als Page das Web zum ersten Mal betrachtete, wurden jede Woche Zehntausende von Websites hinzugefügt. Der geniale Schachzug des Webs war die Ermöglichung von Links, die nur in eine Richtung führten. Das erlaubte dem Web, dezentralisiert zu sein, aber ohne eine zentrale Datenbank, die Links nachverfolgte, war es fast unmöglich, eine Liste aller Websites zu erstellen, die auf eine bestimmte Webseite verlinkten. Page wollte ein Diagramm erstellen, wer wen verlinkte; einen Index, den er verwenden konnte, um verwandte Websites zu querverweisen.
Page verstand, dass der Hyperlink ein digitales Analogon zu akademischen Zitationen war. Ein wichtiger Indikator für den Wert eines bestimmten akademischen Papiers ist die Anzahl der Male, die es zitiert wurde. Wenn ein Papier oft zitiert wird (von anderen qualitativ hochwertigen Papieren), ist es leichter, seine Zuverlässigkeit zu gewährleisten. Das Web funktioniert genauso. Je öfter Ihre Website verlinkt wird (was als Backlink bekannt ist), desto zuverlässiger und genauer ist sie wahrscheinlich.
Theoretisch kann man den Wert einer Website ermitteln, indem man alle anderen Websites zusammenzählt, die darauf verlinken. Das ist aber nur eine Ebene. Wenn 100 Websites auf Sie zurückverlinken, aber jede von ihnen nur einmal verlinkt wurde, ist das weitaus weniger wertvoll, als wenn fünf Websites, die jeweils 100 Mal verlinkt wurden, auf Sie zurückverlinken. Es geht also nicht nur darum, wie viele Links Sie haben, sondern auch um die Qualität dieser Links. Wenn man beide Dimensionen berücksichtigt und Websites anhand von Backlinks als Kriterium aggregiert, kann man sehr schnell eine Liste von Websites nach Qualität geordnet zusammenstellen.
John Battelle beschreibt die technische Herausforderung, vor der Page stand, in seiner eigenen Nacherzählung der Google-Geschichte, The Search.
Page erkannte, dass eine reine Zählung von Links zu einer Seite ein nützlicher Leitfaden für den Rang dieser Seite wäre. Er sah auch, dass jeder Link seinen eigenen Rang basierend auf der Linkanzahl der Quellseite erhalten musste. Aber ein solcher Ansatz schafft eine schwierige und rekursive mathematische Herausforderung – man muss nicht nur die Links einer bestimmten Seite zählen, sondern auch die Links zählen, die mit den Links verbunden sind. Die Mathematik wird ziemlich schnell kompliziert.
Glücklicherweise kannte Page bereits ein mathematisches Wunderkind. Sergey Brin hatte seine Brillanz bereits mehrfach bewiesen, bevor er ein Doktoratsstudium am Institut für Informatik in Stanford begann. Brin und Page waren sich mehrmals begegnet, eine Beziehung, die auf sandigem Boden begann, sich aber zu gegenseitigem Respekt entwickelte. Das mathematische Rätsel im Zentrum von Pages Idee war für Brin zu verlockend, um es abzulehnen.
Er machte sich an die Arbeit an einer Lösung. "Im Grunde wandeln wir das gesamte Web in eine große Gleichung mit mehreren hundert Millionen Variablen um", erklärte er später, "das sind die Page-Ränge aller Webseiten, und Milliarden von Termen, das sind die Links. Und wir sind in der Lage, diese Gleichung zu lösen." Scott Hassan, der selten erwähnte dritte Mitbegründer von Google, der ihren ersten Webcrawler entwickelte, fasste es etwas prägnanter zusammen und beschrieb den Algorithmus von Google als einen Versuch, "rückwärts durch das Web zu surfen!"
Das Ergebnis war PageRank – wie in Larry Page, nicht Webpage. Brin, Page und Hassan entwickelten einen Algorithmus, der Backlinks einer Website nachverfolgen konnte, um die Qualität einer bestimmten Webseite zu bestimmen. Je höher der Wert der Backlinks einer Website war, desto höher stieg sie in den Rankings. Sie hatten entdeckt, was so viele andere übersehen hatten. Wenn man eine Maschine auf die richtige Quelle – Backlinks – trainierte, konnte man bemerkenswerte Ergebnisse erzielen.
Erst danach begannen sie, ihre Rankings mit Suchanfragen abzugleichen, als sie erkannten, dass PageRank am besten in eine Suchmaschine passte. Ihre Suchmaschine nannten sie Google. Sie wurde im August 1996 über die Internetverbindung von Stanford gestartet.

Google löste das Relevanzproblem, das die Online-Suche seit ihren Anfängen plagte. Crawler wie Lycos, AltaVista und Excite konnten eine Liste von Webseiten liefern, die zu einer bestimmten Suche passten. Sie konnten sie nur nicht richtig sortieren, sodass man graben musste, um das gewünschte Ergebnis zu finden. Die Rankings von Google waren sofort relevant. Die erste Seite Ihrer Suche enthielt normalerweise das, was Sie brauchten. Sie waren so zuversichtlich in ihre Ergebnisse, dass sie einen "Ich habe Glück"-Button hinzufügten, der die Benutzer direkt zum ersten Ergebnis ihrer Suche leitete.
Das Wachstum von Google in seinen frühen Tagen war nicht unähnlich dem von Yahoo!. Sie verbreiteten sich durch Mundpropaganda, von Freunden zu Freunden von Freunden. Bis 1997 waren sie groß genug geworden, um das Stanford-Netzwerk zu belasten, etwas, das Yang und Filo nur wenige Jahre zuvor getan hatten. Stanford erkannte erneut das Potenzial. Es stieß Google nicht von seinen Servern. Stattdessen drängten die Berater von Stanford Page und Brin in eine kommerzielle Richtung.
Anfangs versuchten die Gründer, ihren Algorithmus an andere Suchmaschinen zu verkaufen oder zu lizenzieren. Sie trafen sich mit Yahoo!, Infoseek und Excite. Niemand konnte den Wert erkennen. Sie waren auf Portale fokussiert. In einem Zug, der bald absurd klingen würde, verzichteten sie alle auf die Möglichkeit, Google für eine Million Dollar oder weniger zu kaufen, und Page und Brin konnten keinen Partner finden, der ihre Vision erkannte.
Ein Mitglied der Fakultät von Stanford konnte sie mit einigen Investoren verbinden, darunter Jeff Bezos und David Cheriton (was ihnen die ersten Schecks einbrachte, die wochenlang in einer Schreibtischschublade lagen). Sie wurden im September 1998 formell gegründet und zogen in die Garage eines Freundes, brachten einige frühe Mitarbeiter mit, darunter die Symbolics-Systems-Alumna Marissa Mayer.

Selbst mit einer Millionen-Dollar-Investition behielten die Gründer von Google eine Philosophie der Sparsamkeit, Einfachheit und Schnelligkeit bei. Trotz gelegentlicher Ermahnungen ihrer Investoren lehnten sie die Portalstrategie ab und konzentrierten sich weiterhin auf die Suche. Sie arbeiteten weiter an ihrem Algorithmus und der Genauigkeit ihrer Ergebnisse. Sie konzentrierten sich auf ihre Maschinen. Sie wollten die Worte, nach denen jemand suchte, in etwas Bedeutsames verwandeln. Wenn man das Gesuchte nicht unter den Top-Drei-Ergebnissen finden konnte, hatte Google versagt.
Google wurde von einer Wolke aus Hype und positivem Buzz in der Presse gefolgt. Steven Levy schrieb in Newsweek über Google als eine "High-Tech-Version des Orakels von Delphi, die jedem einen Mausklick von den Antworten auf die obskursten Fragen entfernt positioniert – und einfache Antworten so effizient liefert, dass der Prozess süchtig macht". Um diese Zeit drang "Googeln" – eine Verbfom der Seite, synonym mit Suche – in den allgemeinen Sprachgebrauch ein. Die Portalkriege tobten immer noch, aber Google schob sich als ruhige, präzise Alternative zum Lärm nach vorne.
Ende 1998 lieferten sie zehntausend Suchanfragen pro Tag aus. Ein Jahr später stieg diese Zahl auf sieben Millionen pro Tag. Aber leise, hinter den Kulissen, begannen sie, die Teile eines Imperiums zusammenzufügen.
Als das Web wuchs, sagten Technologen und Journalisten das Ende von Google voraus; sie würden niemals mithalten können. Aber sie taten es und überlebten eine sterbende Liste von Konkurrenten. Im Jahr 2001 ging Excite bankrott, Lycos wurde geschlossen und Disney setzte Infoseek aus. Google stieg auf und ersetzte sie. Erst 2006 würde Google Yahoo! als Website Nummer eins überholen. Aber bis dahin hatte sich das Unternehmen zu etwas völlig anderem entwickelt.
Nachdem sie 1999 eine weitere Finanzierungsrunde gesichert hatten, zog Google in ihre neuen Hauptquartiere und stellte eine Armee neuer Mitarbeiter ein. Die Liste der Neuzugänge umfasste ehemalige Ingenieure von AltaVista und den führenden KI-Experten Peter Norvig. Google legte einen beispiellosen Fokus auf technologische Fortschritte. Bessere Server. Schnellere Spinnen. Größere Indizes. Die Ingenieure bei Google entwickelten eine Web-Infrastruktur, die bis dahin nur theoretisch existiert hatte.
Sie trainierten ihre Maschinen auf neue Dinge und neue Produkte. Aber unabhängig von der Anwendung, ob Übersetzung, E-Mail oder Pay-per-Click-Werbung, sie basierten auf demselben Grundsatz. Maschinen können menschliche Intelligenz erweitern und neu gestalten, und das in unbegrenztem Umfang. Google brachte den Nutzen von künstlicher Intelligenz in den Mainstream.

Im Jahr 2001 holten Page und Brin den Silicon-Valley-Veteranen Eric Schmidt als CEO an Bord, eine Rolle, die er ein Jahrzehnt lang innehaben würde. Er würde das Unternehmen während seiner größten Wachstums- und Innovationsphase leiten. Die vierte Mitarbeiterin von Google, Heather Cairns, erinnert sich an seine ersten Tage im Job. "Er hielt diese Art von öffentlicher Ansprache mit dem Unternehmen und sagte: 'Ich möchte, dass Sie wissen, wer Ihr eigentlicher Wettbewerber ist.' Er sagte: 'Das ist Microsoft.' Und alle sagten: Was?"
Bill Gates sagte später: "Im Suchmaschinen-Geschäft hat Google die frühen Innovatoren überholt, sie einfach überholt." Es würde eine Zeit kommen, in der Google und Microsoft aufeinandertreffen würden. Eric Schmidt hatte Recht, was die zukünftige Ausrichtung von Google anging. Aber es würde Jahre dauern, bis Microsoft Google als Bedrohung erkannte. In der zweiten Hälfte der 1990er Jahre waren sie zu sehr damit beschäftigt, in ihren Rückspiegel auf ein anderes aufstrebendes Unternehmen aus dem Silicon Valley zu blicken, das die digitale Welt im Sturm erobert hatte. Microsofts kommender Krieg mit Netscape würde das Web über ein halbes Jahrzehnt lang verschlingen.
Ich glaube, PageRank wurde im Internet Archive erfunden und von Google angeeignet.
Das habe ich in meiner Recherche nicht gefunden, aber ich würde gerne mehr darüber lesen, wenn Sie Links für mich hätten.
… PageRank ist in der Praxis nur eine alberne Idee, aber mathematisch ist sie wunderschön. Man beginnt mit einer einfachen Idee, wie z.B. dass die Qualität einer Seite die Summe der Qualität der Seiten ist, die auf sie verlinken, multipliziert mit einem Skalar. Das führt dazu, dass man die Eigenvektoren einer riesigen dünnen Matrix finden muss. Und weil das so viel Arbeit ist, scheint Google seine PageRank-Werte nicht mehr so oft zu aktualisieren.
Viele Leute denken, dass diese Methode der Linkanalyse von Google erfunden wurde. Das stimmt nicht. Wie gesagt, IBMs CLEVER-Projekt hat es zuerst gemacht. Außerdem funktioniert es nicht. Nun, es funktioniert, aber nicht besser als die einfachen Link- und Linktext-Analysemethoden der anderen Suchmaschinen. Ich weiß das, weil wir bei Infoseek unsere eigene Version implementiert haben und keinen großen Unterschied feststellen konnten. Und Yahoo führte einen Ergebnisvergleich zwischen Google und Inktomi durch, bevor es Inktomi kaufte, und kam zu demselben Schluss.
Was Google meiner Meinung nach wirklich ins Rampenlicht gerückt hat, war seine Indexgröße, Geschwindigkeit und dynamisch generierten Zusammenfassungen. Das waren Googles Siegpunkte und sind es bis heute, nicht PageRank.SK Erzählen Sie uns jetzt von Gigablast.
Von: queue.acm.org „A Conversation with Matt Wells“
Was für eine fantastische Lektüre. Dieses Meisterwerk der Websuche hat mir wirklich gefallen, vielen Dank für das Schreiben (und Veröffentlichen)!
Ausgezeichnete Geschichte der Suchmaschinenentwicklung. Würde gerne die nächsten Kapitel lesen. Ist es nicht Peter Norvig statt Peter Norving?