Realizar a instalação, configuração e manutenção de um cluster Hadoop com Spark.<br />Será um cluster pequeno com aproximadamente 4 máquinas (1 mestre e 3 escravos), essa instalação deverá ser feita com o Apache Ambari (ferramenta para automatização de instalação de clusters).<br />Esse cluster também pode/deve conter outras ferramentas além do Hadoop. (Isso inclui Hue, Hive, Pig, Zeppelin etc)<br /><br />Depois disso, será feito um trabalho de extração de dados do cliente, essa extração compreende aproximadamente 70 tabelas de um banco de dados Sql Server.<br />O volume de dados é entre 100gb ~ 200gb.<br />Cada tabela deve ser armazenada dentro do cluster compactada.<br />Provavelmente será um script bash que fará esse processo.<br /><br />Provavelmente haverá o esforço de gerar relatórios para efeito de prova de conceito.<br />Qualquer duvida pode me chamar.<br />
Olá, achei o seu projeto bastante interessante.
Devido a crise, estamos cobrando muito baixo nos orçamentos.
Gostaria de saber se já posso enviar o orçamento ou se tem algo a mais para acrescentar.
Nosso Sit*:
DominioVeloz.
Olá, sou Rafael Melo, diretor da HelpDigital. Somos uma empresa de projetos de software com mais de 13 anos de experiência e temos uma equipe de especialistas que vão atender a sua necessidade e entregar o melhor resultado para o seu negócio.
Acreditamos na excelência da entrega de nossos trabalhos e é de nosso interesse te oferecer a melhor experiência com o melhor custo benefício. Vamos marcar uma reunião?
Boa tarde,
Sou Arquiteto de Software, DBA e DevOps, com 13 anos de experiência.
Tenho grande conhecimento em otimizações deste nível e interesse em ajuda-los a melhorar a performance e consequentemente o problema apresentado.
Caso tenha interesse estou à disposição.
Obrigado!