bookmark

heise Developer - 01.04.2010 08:58 - Verarbeiten großer verteilter Datenmengen mit Hadoop


Description

Internetfirmen müssen für den Betrieb ihrer Dienste täglich Datenmengen im Giga- und Petabereich speichern und effizient verarbeiten. Den Part der Datenverarbeitung können Googles MapReduce oder die Open-Source-Nachbildung Hadoop übernehmen.

Preview

Tags

Users

  • @hotho

Comments and Reviews