Back to Search

Efektywna deduplikacja danych w Hadoop

AUTHOR Prajapati, Priteshkumar; Shah, Parth
PUBLISHER Wydawnictwo Nasza Wiedza (09/18/2025)
PRODUCT TYPE Paperback (Paperback)

Description
Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo ?e jest bardzo odporny na awarie, skalowalny i dziala na standardowym sprz?cie, nie zapewnia wydajnego i zoptymalizowanego rozwi?zania do przechowywania danych. Gdy u?ytkownik przesyla pliki o tej samej zawarto?ci do Hadoop, wszystkie pliki s? przechowywane w HDFS (Hadoop Distributed File System), nawet je?li zawarto?c jest taka sama, co prowadzi do powielania tre?ci, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces maj?cy na celu zmniejszenie wymaganej pojemno?ci pami?ci, poniewa? przechowywane s? tylko unikalne instancje danych. Proces deduplikacji danych jest szeroko stosowany w serwerach plików, systemach zarz?dzania bazami danych, pami?ciach kopii zapasowych i wielu innych rozwi?zaniach pami?ci masowej. Odpowiednia strategia deduplikacji pozwala na wystarczaj?ce wykorzystanie przestrzeni dyskowej w ramach ograniczonych urz?dze? pami?ci masowej. Hadoop nie zapewnia rozwi?zania w zakresie deduplikacji danych. W niniejszej pracy modul deduplikacji zostal zintegrowany z frameworkiem Hadoop w celu uzyskania zoptymalizowanego przechowywania danych.
Show More
Product Format
Product Details
ISBN-13: 9786202087421
ISBN-10: 6202087420
Binding: Paperback or Softback (Trade Paperback (Us))
Content Language: Polish
More Product Details
Page Count: 76
Carton Quantity: 92
Product Dimensions: 6.00 x 0.18 x 9.00 inches
Weight: 0.25 pound(s)
Country of Origin: US
Subject Information
BISAC Categories
Computers | General
Descriptions, Reviews, Etc.
publisher marketing
Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo ?e jest bardzo odporny na awarie, skalowalny i dziala na standardowym sprz?cie, nie zapewnia wydajnego i zoptymalizowanego rozwi?zania do przechowywania danych. Gdy u?ytkownik przesyla pliki o tej samej zawarto?ci do Hadoop, wszystkie pliki s? przechowywane w HDFS (Hadoop Distributed File System), nawet je?li zawarto?c jest taka sama, co prowadzi do powielania tre?ci, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces maj?cy na celu zmniejszenie wymaganej pojemno?ci pami?ci, poniewa? przechowywane s? tylko unikalne instancje danych. Proces deduplikacji danych jest szeroko stosowany w serwerach plików, systemach zarz?dzania bazami danych, pami?ciach kopii zapasowych i wielu innych rozwi?zaniach pami?ci masowej. Odpowiednia strategia deduplikacji pozwala na wystarczaj?ce wykorzystanie przestrzeni dyskowej w ramach ograniczonych urz?dze? pami?ci masowej. Hadoop nie zapewnia rozwi?zania w zakresie deduplikacji danych. W niniejszej pracy modul deduplikacji zostal zintegrowany z frameworkiem Hadoop w celu uzyskania zoptymalizowanego przechowywania danych.
Show More
List Price $47.00
Your Price  $46.53
Paperback