Common Crawl

von | 11. August 2020 | Blog, Daten, Open Data, Projekte, Software

Die Common Crawl Foundation ist eine in Kalifornien 501(c)(3) eingetragene gemeinnützige Stiftung, die von Gil Elbaz mit dem Ziel gegründet wurde, den Zugang zu Web-Informationen zu demokratisieren, indem sie ein offenes Repository von Web-Crawl-Daten erstellt und pflegt, das allgemein zugänglich und analysierbar ist.

Ihre Vision ist ein wirklich offenes Web, das einen offenen Zugang zu Informationen ermöglicht und größere Innovation in Forschung, Wirtschaft und Bildung ermöglicht. Die Stiftung möchte Wettbewerbsbedingungen verbessern, indem sie die Extraktion, Transformation und Analyse von Webdaten im großen Maßstabgünstig und einfach macht.

Das Common-Crawl-Korpus enthält Petabytes von Daten, die über 8 Jahre Web-Crawling gesammelt wurden. Das Korpus enthält rohe Webseitendaten, Metadaten- und Textauszüge. Common-Crawl-Daten werden auf den öffentlichen Datensätzen von Amazon Web Services und auf mehreren akademischen Cloud-Plattformen auf der ganzen Welt gespeichert.

Der Zugriff auf das von Amazon gehostete Common-Crawl-Korpus ist kostenlos. Sie können die Cloud-Plattform von Amazon verwenden, um Analyseaufträge direkt gegen sie auszuführen, oder Sie können Teile oder das gesamte Korpus herunterladen.Mit dem Common Crawl URL Index. kann nach Seiten gesucht werden.

-> zu commoncrawl.org