Table of Contents Table of Contents
Previous Page  48 / 114 Next Page
Information
Show Menu
Previous Page 48 / 114 Next Page
Page Background

48

Introdução

A informação pode ser vista como uma condição para a

sobrevivência, haja vista que a mesma amplia o contexto de

comunicação resgatando e preservando a memória social.

O seu valor é intangível e resiste a todos os mecanismos

de esquecimento e destruição, uma vez que o acervo de

reconstrução informativo permite a avaliação cognitiva e

do conhecimento de uma determinada realidade em ques-

tão [1].

No entanto, no século 21, graças à

Internet

, a velocidade

da geração de informações é sem precedente e inédita no

mundo. Os dados criados são praticamente instantâneos.

A capacidade per-capita tecnológica do mundo para arma-

zenar informações praticamente dobrou a cada 40 meses

desde a década de 1980. A partir de 2012, todos os dias

2,5 quintilhões (2,5 × 10

18

) bytes de dados são criados [2].

Esse fenômeno crescente de dados é denominado

Big Data

[3], [4].

Uma vez estabelecida a proliferação de dados e informação

por meio da

Internet

e através do fluxo de informações e não

existindo restrições quanto à distância e a disponibilidade,

a grande questão que surge é a capacidade de triagem, in-

terpretação e conversão desse volume de informação exis-

tente. A necessidade de identificar e analisar a quantidade

de informação de uma determinada área (científica ou tec-

nológica) e o seu estado da arte com respectivas correla-

ções se tornou um trabalho árduo.

Desta forma a gama de dados diários lançados na

Web

, tem

levado ao treinamento constante de profissionais de todas

as áreas. Novas atividades têm aparecido, como a do

Data

scientist

– aquele que busca continuamente a melhor forma

de lidar com o fenômeno do

Big Data

. O termo

Big Data

foi consolidado no meio científico, devido ao conjunto de

soluções tecnológicas capazes de lidar com a acumulação

contínua de dados que estão pouco estruturados e são cap-

turados de diversas fontes. Eles se apresentam na ordem

de petabytes, ou seja; quatrilhões de bytes de dados arma-

zenados. É desafiador lidar com esses números tanto para

realização de projetos científicos quanto para empresas ou

organizações de qualquer ramo de negócio [2].

No âmbito institucional, tomar decisões sem acesso à in-

formação adequada leva a decisões imprecisas e por vezes

desastrosas. As decisões baseadas em fatos e em uma in-

formação confiável são mais propensas a gerar bons re-

sultados dando aos tomadores de decisão subsídios para

enfrentarem os desafios do cotidiano. A informação ade-

quada e em tempo hábil, desenvolve estratégias eficazes

e age de forma proativa. Essa ação pode ser chamada de

estratégia competitiva quando envolve a abordagem do

negócio como o desenvolvimento tecnológico – patentes

por exemplo, o que maximiza o valor das capacidades da

organização em distinguir a empresa de seus concorren-

tes [5].

Desafios para a ciência:

a saúde pública em questão

Assim como para o Governo, Academia e as empresas, o

estudo de qualquer área científica, como a saúde pública,

por exemplo, leva ao gerenciamento de grandes volumes de

dados quando se pretende obter uma visualização científica

consistente para a tomada de decisão dos seus gestores. Um

exemplo na área de saúde pública pode ser visualizado na

figura 1, onde é demonstrado o monitoramento, em tempo

real, sobre ameaças de saúde pública de forma global, através

de notícias e surtos em andamento, alertas por país e respec-

tiva significância internacional.

Cabe destacar que os dados mostrados pelo

Healthmap,

são

interativos e reúnem informações de mais de 100 doenças,

aquelas que mais foram comentadas e sobre as quais alertas

foram publicados em determinado período (dia, semana ou

mês).As doenças escolhidas para monitoramento, do

Health-

map

acima, baseiam-se no elenco das consideradas prioritá-

rias pela Organização Mundial da Saúde (OMS). São colhidas

e tratadas por motores de busca aplicados a bancos de dados

científicos, reportagens, ou outros meios de publicação e di-

fusão de informações.

Em relação à figura 1, ressalta-se que, quanto maior o tama-

nho do círculo, maior o número de “alertas” e quantidades

(números) geradas sobre determinada doença. Clicando em

cada círculo, é possível resgatar os respectivos documentos,

onde o alerta foi publicado, bem como identificar a localiza-

ção geográfica do “alerta”.

Esta ferramenta mostrou-se eficaz quando do surto em vá-

rios locais da gripe H1N1, quando foi possível identificar ra-

pidamente focos dos surtos. Baseado nesses dados, o poder

público pode atuar de forma eficaz para controlar e evitar

uma pandemia global. Haja vista que ações tradicionais de

notificações médicas e análises de saúde pública levariam

meses para uma intervenção no caso. O monitoramento

on time

proporciona uma revolução na área de prevenção e

ações de saúde pública [6].

É de se notar que a ciência intensiva em dados e informação

não é nova, mas a escala com a qual ela se apresenta atual-

mente, em qualquer tipo de tema é exponencial, em especial,

considerando suas correlações em um contexto globalizado.

Exige, portanto, novas ferramentas de extração, análise e tra-

tamento informacional. Uma abordagem que tem possibilita-

do a realização desta atividade é o da Ciência da Informação,

que por ter foco em informação, possibilita a interface multi-

disciplinar com diversas áreas, inclusive o da saúde.

Os desafios para a área da saúde sempre estiveram na agenda

da comunidade científica e tecnológica. Nesse sentido, com

o advento da revolução da tecnologia da informação no sécu-

lo XXI, a cooperação multidisciplinar é crucial para garantir

o avanço na ciência em todas as áreas. A área de saúde apre-

senta interfaces com várias áreas do conhecimento, entre

elas a química e a dos fármacos/drogas.

Artigo Original