

52
Passado mais de 20 anos observa-se que além de qualquer
previsão, a revolução da informação com o
Big Data
, exi-
giu novas abordagens para olhar a ciência e tecnologia e
conectar-se constantemente às grandes redes estabeleci-
das. Esse fato se agrava diante da capacidade de absorção
de um país/empresa a determinada tecnologia. Exempli-
fica-se que o Brasil iniciou sua primeira conexão com a
Internet
(protocolo NCP para o TCP/IP) em 1991, pela
Fundação de Amparo à Pesquisa do Estado de São Paulo
(FAPESP)
3
[34], [35].
A despeito de encontrar o grande volume de dados na
Web
, vale ressaltar a existência de duas categorias de da-
dos no mundo virtual, a
Web
visível (
surface Web
) e a in-
visível, também conhecida como
Web
profunda (
deepWeb
ou
dark Web
). A visível é aquela onde qualquer informa-
ção pode ser obtida através de pesquisa simples padrão,
como por meio do
e outros motores de busca, as-
sim como
Twitter, Facebook
e
sites
não dinâmicos. Estima-se
que os dados disponíveis nesta categoria correspondam a
4% do que existe em toda
Web
. Já para a
Web
profunda,
encontram-se os 96% de dados restantes, ou seja, aque-
les que realmente podem ser considerados mais valiosos.
Nesta
Web
, não é trivial obter dados.As informações estão
“enterradas” em muitas camadas para baixo em uma pá-
gina dinâmica, representam um vasto repositório de in-
formações que não é acessível a motores de busca padrão
[35]–[37]. São banco de dados,
sites
de empresas e outras
fontes, onde muitas vezes, a acessibilidade só é permitida
através de consulta personalizada, como cadastro, licença
etc.
Considerando a evolução exponencial de dados, o tra-
tamento do
Big Data
é necessário para produzir conhe-
cimento em inteligência. Sua finalidade é fornecer um
produto de inteligência preciso, oportuno, relevante e
abrangente para os líderes de governo, gestores de em-
presas e outros formuladores de políticas no afã de apoiar
o processo de tomada de decisão. Entretanto, o processo
de inteligência por sua própria natureza está sujeito a er-
ros. A informação é aberta as interpretações alternativas
e o pensamento humano está sujeito a distorções cogniti-
vas, culturais, e outras.
Nesse contexto, nasce a complexidade no tratamento da
informação, pois é preciso envolver pessoas, processos e
tecnologia, onde as pessoas devem estar capacitadas, tanto
para uma abordagem estratégica e de gestão, quanto para
buscar soluções e propostas em problemas mais operacio-
nais. Ou seja, gestores preparados para gerir, tomar de-
cisões e técnicos preparados para a análise, para oferecer
alternativas. Já nos processos, esses envolvem metodolo-
gias, relações entre uma etapa e outro processamento e
resultados do
Big Data
inicial. Concernente à tecnologia,
destacam-se as ferramentas, sistemas computacionais e a
conectividade para usar a
Internet
. Não obstante, a tecno-
logia pode ficar obsoleta com o tempo, e, portanto, surge
a necessidade de atualizações constantes e adaptações às
novas ferramentas [38, p. 0].
Vale ressaltar que o
Big Data
não faz milagre. Embora a
gama de informações no presente século são inúmeras,
se a interconectividade de pessoas, processos e tecnolo-
gia não forem executados de forma eficaz (tomar decisão
através de uma visão sistêmica da organização em relação
ao ecossistema inserido), empobrecerá todo esforço em
“traduzir” os dados “minerados” sobre determinado assun-
to. Consequentemente, ferramentas para analisar grandes
volumes de dados permearão cada vez mais as organiza-
ções, em razão de que a tecnologia cada vez mais está no
‘DNA’ delas, desde que exista pessoal qualificado para
usar as ferramentas e traduzir os resultados eficazmente.
Atualmente,
O Big Data
faz parte de um ecossistema bem
maior do que um conjunto de
software
de análise de da-
dos. A sociedade inicia a era da “
Internet
das coisas”. Ela
sai do mundo virtual, das telas dos computadores e vem
se tornando presente no cotidiano das pessoas. É possível
encontrar
chips
nos celulares/
smartphones
, em eletrodo-
mésticos e nos carros, permitindo que os mesmos tenham
a possibilidade desses dispositivos estarem conectados à
Internet
. A partir daí, ser possível gerenciar e se antever
a inúmeras situações do dia-a-dia como alguns
softwares
programarem a geladeira para descongelar, verificar a
temperatura da casa e se autorregular, administrar o me-
lhor trajeto da residência-trabalho e vice-versa, efetuar
compras online e receber em casa, monitorar e emitir
alertas de saúde ao médico e paciente etc. Esses pequenos
exemplos de conexões geram uma vasta quantidade de
dados. A partir deles é possível analisar e entender com
mais precisão, o comportamento das pessoas e se anteci-
par a situações buscando melhor qualidade de vida para o
ser humano [19], [31], [39], [40].
Outro exemplo de
Big Data
pode-se cunhar uma situa-
ção no mercado varejista. Quando uma pessoa acessa uma
loja
online
, o
site
pode levar milissegundos para identificar
o perfil de compra do indivíduo e oferecer os produtos
mais relevantes, haja vista, por exemplo, os diversos me-
canismos (aplicativos,
cookies
, etc.) que se auto instalam
automaticamente no IP
4
do computador através dos
clicks
que a pessoa executa quando “navega” na
Internet
. Assim,
pelo tratamento algorítmico em
Big Data
dos programas,
poderão ser sugeridos produtos que venham “encantar” o
potencial cliente. Anteriormente, pensar essa situação no
mundo físico levaria meses através de pesquisas e outras
ações. Como exemplo, nos Estados Unidos, as empresas
de energia estavam instalando relógios de leitura para me-
dir o consumo dos eletrodomésticos de forma individual.
Isto possibilitou que o consumidor verificasse a dimensão
de seu desperdício, proporcionando economia na conta
de luz quando passassem a desligar alguns aparelhos. Por
outro lado, as empresas de energia identificam em tempo
real, quanto está sendo consumido em cada residência,
Artigo Original