Por Rajni Sachan*
Para facilitar a geração de ideias inteligentes e a tomada de decisões com base em informações, as empresas contam atualmente com mais dados do que nunca – provenientes de aplicações empresariais, bancos de dados, mídias sociais, dispositivos inteligentes, celulares e outros equipamentos. Esses dados são gerados em grandes volumes, nos mais variados formatos, com grande velocidade e veracidade meticulosa. Se você imagina que a Lei de Moore, que fala sobre a duplicação do poder computacional a cada 18 meses, foi um avanço, pense novamente. Com mais de um bilhão de posts nas mídias sociais gerados a cada dois dias, o efeito Big Data está fazendo com que Moore pareça algo trivial.
Big Data é igual a Grandes Ideias
Com base no Big Data, você pode examinar os padrões de compra dos consumidores e aumentar as vendas por meio de sugestões do tipo “Compre também”, rastrear a cadeia de suprimentos, analisar tendências para fazer previsões e evitar crimes, associar dados sobre condições meteorológicas à saúde das plantações para garantir colheitas melhores e até mesmo prever surtos epidêmicos – mais rápido do que os registros de admissão em hospitais. Agora imagine basear todas essas decisões em dados imprecisos, falhos. Chegamos ao ponto? A importância de testes de qualidade de software (Quality Assurance – QA) e de Testes para Big Data não pode ser subestimada – simplesmente porque Big Data não significa apenas algo grande – mas também grandes ideias que podem levar a grandes resultados. É preciso ouvir continuamente o fluxo de dados vindo do Big Data e remover o que é irrelevante. Afinal, você não quer dados contaminados, com ruídos, afetando as decisões de negócios e sua agilidade para servir o mercado.
Grande preocupação
Ainda que o potencial do Big Data tenha sido aceito e reconhecido, os analistas seguem alertando sobre a crescente preocupação em torno da qualidade dos dados. De acordo com a Experian, 75% das empresas estão perdendo 14% da receita devido à qualidade sofrível dos dados. Isso evidencia uma clara demanda por tecnologias computacionais e estatística sólidas, apoiadas por uma estrutura robusta de testes de qualidade de software (QA) voltada para análises criteriosas que resultem em uma excelente experiência para os consumidores, custos menores associados à qualidade dos dados e time-to-market acelerado.
Grande diferença
Dada à variedade do Big Data, os bancos de dados que armazenam informações estruturadas são inadequados para arquivar, analisar e processar. Muitas vezes, Big Data é confundido com Data Warehousing. Enquanto Data Warehouse fornece boas respostas para problemas de negócios, Big Data apresenta ideias inteligentes sobre perguntas que importam. Bons exemplos podem ser dados por grandes varejistas, bancos ou negócios de hotelaria que analisam padrões de comportamento em suas bases de dados. Com o Big Data, eles podem acompanhar mensagens em mídias sociais em tempo real, identificar grupos de clientes e ter uma comunicação altamente personalizada oferecendo descontos dirigidos que garantam não apenas vendas cruzadas melhores, mas também satisfação e fidelidade dos clientes. Nesse cenário, o Data Warehousing padrão teria parado na análise de vendas, mas o Big Data pode ir um passo à frente, apresentando uma visão inteligente sobre os negócios para permitir uma transformação nas vendas e potencial para proporcionar uma experiência superior aos clientes.
Grande papel da QA: Uma estrutura 4π
De uma perspectiva de garantia, precisamos avançar ainda mais para assegurar a qualidade do Big Data. Embora tenhamos estratégias de testes bem definidas e testadas para Data Warehousing, essas abordagens tradicionais, quando aplicadas ao Big Data, podem resultar em visões convincentes completamente equivocadas! Os testes para Big Data exigem estratégias para dados estruturados, semiestruturados e não estruturados. Outros pré-requisitos incluem testes estatísticos de conjuntos de dados, um ambiente de teste ideal e expansível e competências para trabalhar com bancos de dados não relacionais. Há uma demanda por uma estrutura de garantia eficiente para Big Data, para que os esforços associados a ele sejam recompensadores. Meu webinar Make your Dive into Big Data rewarding with an Effective QA and Testing Strategy apresenta uma estrutura de QA inovadora que permite processar grandes volumes de dados sem comprometer sua qualidade. A estrutura 4π é composta por:
Grandes conclusões
Por meio desses pilares, a estrutura 4π aborda quatro tipos de imprecisão resultantes das quatro fases do ciclo de projetos de Big Data. A estrutura também inclui roteiros de automação e ferramentas para traçar o perfil dos dados, validá-los, gerar e alinhar os dados de teste, fazer análises preditivas e modelagens para assegurar a exatidão da implementação. Usadas em todos os tipos de teste (unidade, sistema e funcional), com a marca RoboTest, as ferramentas de automação reforçam ainda mais o quarto pilar de testes de qualidade de software (automação).
Para obter melhores resultados do Big Data, só é preciso se lembrar dos quatro pilares de garantia – e, se os controles e balanços parecerem intimidantes, a estrutura 4π facilitará as coisas ao resumir o processo em uma sigla fácil de lembrar– “4π” – quatro fases que podem resultar em quatro tipos de imprecisão e quatro pilares para abordá-los.
Grandes recompensas
Com testes de qualidade de software (QA) baseada na estrutura 4π, as ideias geradas via Big Data podem ajudá-lo a se antecipar à concorrência, explorar novos mercados, prever o comportamento dos consumidores, aprimorar o marketing e elevar o valor da marca – todos fatores importantes para melhorar os resultados e a agilidade dos negócios. Da próxima vez que precisar monitorar o comportamento dos consumidores, não fique preso a pesquisas e amostras, vá fundo no Big Data, atenda à demanda certa, na hora certa e com o preço certo e garanta seu sucesso com a “4π”.
Uma versão anterior deste post foi publicada no #ThinkAssurance, o blog de Testes de Qualidade de Software (QA) da Tata Consultancy Services.
*Rajni Sachan, gerente de relacionamento de negócios da TCS Assurance Services, tem mais de 14 anos de experiência em Business Intelligence e Testes de Qualidade de Software, programas complexos e estratégicos de transformação de TI em vários os domínios. Bacharel em Engenharia Eletrônica e de Telecomunicações, ela tem vasta experiência ciclo de vida de programas, soluções de negócios empresariais e consultoria. Suas áreas de interesse incluem tecnologias disruptivas e soluções inovadoras para negócios.
https://www.linkedin.com/pub/rajni-sachan/39/9a3/520
Sobre a Tata Consultancy Services Ltd (TCS)
A Tata Consultancy Services é uma empresa de consultoria de serviços de TI e soluções corporativas que oferece resultados reais para negócios globais, garantindo um nível de segurança que nenhuma outra empresa pode igualar. A TCS oferece uma equipe de consultores próprios e um portfólio integrado de serviços de TI, BPS, infraestrutura, engenharia e serviços de garantia. A entrega é realizada através de seu modelo exclusivo chamado Global Network Delivery Model™, reconhecido como referencial de excelência no desenvolvimento de software. Como parte do grupo Tata, o maior conglomerado industrial da Índia, a TCS conta com mais de 353 mil dos consultores mais bem treinados do mundo, em 46 países. A empresa gerou uma receita consolidada de US$ 16,5 bilhões no exercício fiscal encerrado em 31 de março de 2016, e está listada nas bolsas de valores National Stock Exchange e Bombay Stock Exchange na Índia