O Big Data é basicamente um enorme acervo de banco dados online. Por possuir um alto volume de dados, é possível que diversos arquivos sejam coletados e armazenados, e assim, serem utilizados em qualquer lugar do mundo para diversos propósitos.
Com o Big Data Analytics, torna-se possível: Identificar perfis de consumidores. Definir padrões bastante precisos de comportamento e hábitos de consumo. Analisar as ações de empresas concorrentes.
Big Data é a análise e a interpretação de grandes volumes de dados de grande variedade. Para isso são necessárias soluções específicas para Big Data que permitam a profissionais de TI trabalhar com informações não-estruturadas a uma grande velocidade.
O profissional de tecnologia de big data e inteligência analítica atua no mercado de análise de dados, que pode ser tanto de clientes ou usuários, quanto das próprias empresas (entidade).
Hadoop
O Apache Hadoop é a ferramenta mais importante e usada no setor de Big Data, com sua enorme capacidade de processamento de dados em larga escala. Essa é uma estrutura 100% de código aberto e é executada em hardware comum em um data center existente. Além disso, ele pode ser executado em uma infraestrutura de nuvem.
O termo Big Data nasceu no início da década de 1990, na NASA, para descrever grandes conjuntos de dados complexos que desafiam os limites computacionais tradicionais de captura, processamento, análise e armazenamento informacional.
HDFS – Características