Efektywna deduplikacja danych w Hadoop

Efektywna deduplikacja danych w Hadoop

Versandkostenfrei!
Versandfertig in 6-10 Tagen
26,99 €
inkl. MwSt.
PAYBACK Punkte
13 °P sammeln!
Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo ¿e jest bardzo odporny na awarie, skalowalny i dziäa na standardowym sprz¿cie, nie zapewnia wydajnego i zoptymalizowanego rozwi¿zania do przechowywania danych. Gdy u¿ytkownik przesy¿a pliki o tej samej zawarto¿ci do Hadoop, wszystkie pliki s¿ przechowywane w HDFS (Hadoop Distributed File System), nawet je¿li zawarto¿¿ jest taka sama, co prowadzi do powielania tre¿ci, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces maj¿cy na celu zmniejszenie wymaganej pojemno¿ci pami¿ci, poniewä ...