Back to Search

Desduplicação eficiente de dados no Hadoop

AUTHOR Prajapati, Priteshkumar; Shah, Parth
PUBLISHER Edicoes Nosso Conhecimento (09/18/2025)
PRODUCT TYPE Paperback (Paperback)

Description
O Hadoop é amplamente utilizado para armazenamento de dados massivamente distribuído. Embora seja altamente tolerante a falhas, escalável e funcione em hardware comum, ele não oferece uma solução de armazenamento de dados eficiente e otimizada. Quando o utilizador carrega ficheiros com o mesmo conteúdo no Hadoop, ele armazena todos os ficheiros no HDFS (Hadoop Distributed File System), mesmo que o conteúdo seja o mesmo, o que leva à duplicação de conteúdo e, portanto, ao desperdício de espaço de armazenamento. A deduplicação de dados é um processo que reduz a capacidade de armazenamento necessária, uma vez que apenas as instâncias únicas de dados são armazenadas. O processo de deduplicação de dados é amplamente utilizado em servidores de ficheiros, sistemas de gestão de bases de dados, armazenamento de cópias de segurança e muitas outras soluções de armazenamento. Uma estratégia de deduplicação adequada utiliza suficientemente o espaço de armazenamento em dispositivos de armazenamento limitados. O Hadoop não oferece uma solução de deduplicação de dados. Neste trabalho, o módulo de deduplicação foi integrado na estrutura do Hadoop para obter um armazenamento de dados otimizado.
Show More
Product Format
Product Details
ISBN-13: 9786202087452
ISBN-10: 6202087455
Binding: Paperback or Softback (Trade Paperback (Us))
Content Language: Portuguese
More Product Details
Page Count: 76
Carton Quantity: 92
Product Dimensions: 6.00 x 0.18 x 9.00 inches
Weight: 0.25 pound(s)
Country of Origin: US
Subject Information
BISAC Categories
Computers | General
Descriptions, Reviews, Etc.
publisher marketing
O Hadoop é amplamente utilizado para armazenamento de dados massivamente distribuído. Embora seja altamente tolerante a falhas, escalável e funcione em hardware comum, ele não oferece uma solução de armazenamento de dados eficiente e otimizada. Quando o utilizador carrega ficheiros com o mesmo conteúdo no Hadoop, ele armazena todos os ficheiros no HDFS (Hadoop Distributed File System), mesmo que o conteúdo seja o mesmo, o que leva à duplicação de conteúdo e, portanto, ao desperdício de espaço de armazenamento. A deduplicação de dados é um processo que reduz a capacidade de armazenamento necessária, uma vez que apenas as instâncias únicas de dados são armazenadas. O processo de deduplicação de dados é amplamente utilizado em servidores de ficheiros, sistemas de gestão de bases de dados, armazenamento de cópias de segurança e muitas outras soluções de armazenamento. Uma estratégia de deduplicação adequada utiliza suficientemente o espaço de armazenamento em dispositivos de armazenamento limitados. O Hadoop não oferece uma solução de deduplicação de dados. Neste trabalho, o módulo de deduplicação foi integrado na estrutura do Hadoop para obter um armazenamento de dados otimizado.
Show More
List Price $47.00
Your Price  $46.53
Paperback