Efektywna deduplikacja danych w Hadoop
| AUTHOR | Prajapati, Priteshkumar; Shah, Parth |
| PUBLISHER | Wydawnictwo Nasza Wiedza (09/18/2025) |
| PRODUCT TYPE | Paperback (Paperback) |
Description
Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo ?e jest bardzo odporny na awarie, skalowalny i dziala na standardowym sprz?cie, nie zapewnia wydajnego i zoptymalizowanego rozwi?zania do przechowywania danych. Gdy u?ytkownik przesyla pliki o tej samej zawarto?ci do Hadoop, wszystkie pliki s? przechowywane w HDFS (Hadoop Distributed File System), nawet je?li zawarto?c jest taka sama, co prowadzi do powielania tre?ci, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces maj?cy na celu zmniejszenie wymaganej pojemno?ci pami?ci, poniewa? przechowywane s? tylko unikalne instancje danych. Proces deduplikacji danych jest szeroko stosowany w serwerach plików, systemach zarz?dzania bazami danych, pami?ciach kopii zapasowych i wielu innych rozwi?zaniach pami?ci masowej. Odpowiednia strategia deduplikacji pozwala na wystarczaj?ce wykorzystanie przestrzeni dyskowej w ramach ograniczonych urz?dze? pami?ci masowej. Hadoop nie zapewnia rozwi?zania w zakresie deduplikacji danych. W niniejszej pracy modul deduplikacji zostal zintegrowany z frameworkiem Hadoop w celu uzyskania zoptymalizowanego przechowywania danych.
Show More
Product Format
Product Details
ISBN-13:
9786202087421
ISBN-10:
6202087420
Binding:
Paperback or Softback (Trade Paperback (Us))
Content Language:
Polish
More Product Details
Page Count:
76
Carton Quantity:
92
Product Dimensions:
6.00 x 0.18 x 9.00 inches
Weight:
0.25 pound(s)
Country of Origin:
US
Subject Information
BISAC Categories
Computers | General
Descriptions, Reviews, Etc.
publisher marketing
Hadoop jest szeroko stosowany do masowego przechowywania danych. Mimo ?e jest bardzo odporny na awarie, skalowalny i dziala na standardowym sprz?cie, nie zapewnia wydajnego i zoptymalizowanego rozwi?zania do przechowywania danych. Gdy u?ytkownik przesyla pliki o tej samej zawarto?ci do Hadoop, wszystkie pliki s? przechowywane w HDFS (Hadoop Distributed File System), nawet je?li zawarto?c jest taka sama, co prowadzi do powielania tre?ci, a tym samym do marnowania przestrzeni dyskowej. Deduplikacja danych to proces maj?cy na celu zmniejszenie wymaganej pojemno?ci pami?ci, poniewa? przechowywane s? tylko unikalne instancje danych. Proces deduplikacji danych jest szeroko stosowany w serwerach plików, systemach zarz?dzania bazami danych, pami?ciach kopii zapasowych i wielu innych rozwi?zaniach pami?ci masowej. Odpowiednia strategia deduplikacji pozwala na wystarczaj?ce wykorzystanie przestrzeni dyskowej w ramach ograniczonych urz?dze? pami?ci masowej. Hadoop nie zapewnia rozwi?zania w zakresie deduplikacji danych. W niniejszej pracy modul deduplikacji zostal zintegrowany z frameworkiem Hadoop w celu uzyskania zoptymalizowanego przechowywania danych.
Show More
List Price $47.00
Your Price
$46.53
