PUBLICIDADE

EXCLUSIVO PARA ASSINANTES
Foto do(a) coluna

O Futuro dos Negócios

Opinião|Um minuto na Internet

A enorme quantidade de novos dados gerados a cada sessenta segundos é um dos desafios da sociedade da Informação

Atualização:

A cada quatro ou seis anos, a Conferência Geral sobre Pesos e Medidas (Conférence Générale des Poids et Mesures - CGPM) ocorre em Sèvres, a cerca de dez quilômetros do centro de Paris. Nesta ocasião são definidos todos os aspectos relativos ao sistema métrico, presente no dia-a-dia da maior parte da população mundial (os únicos países que oficialmente não o utilizam são a Libéria, Mianmar e os Estados Unidos). O primeiro encontro aconteceu no ano de 1889, e a partir da 6ª edição, realizada em 1921 (quando o Brasil tornou-se membro) não apenas o metro e o quilograma passaram a ser o foco das discussões: todas as dimensões associadas ao sistema métrico passariam a ser discutidas e definidas na Conferência. A 26ª edição está marcada para novembro de 2018.

PUBLICIDADE

Algumas das unidades mais utilizadas no mundo da computação pessoal - como "mega", "giga" e "tera" - foram confirmadas na conferência de 1960. Em 1975 e em 1991 foram criados prefixos adicionais para auxiliar na discussão de grandezas cada vez maiores: "peta" e "exa" em 75, e "zetta" e "yotta" em 91. Quando passamos de uma unidade para outra, estamos aumentando os valores por um fator de mil vezes (há uma diferença entre o valor estabelecido pelo sistema decimal, que é 1000, e o valor utilizado pelo sistema binário, que é 2^10=1024). 

Para entender a magnitude destes números e o impacto dos mesmos no tráfego de dados global podemos utilizar alguns exemplos. Se uma fotografia de alta resolução ocupa cerca de 2 megabytes (o equivalente a cerca de mil e oitocentos páginas de texto), um vídeo de alta resolução com sete minutos ocupa 1 gigabyte (quase novecentas mil páginas de texto, ou ainda cerca de duzentos e cinquenta músicas armazenadas no formato MP3). No ano 2000, com 10 terabytes (ou 10.240 gigabytes) era possível armazenar o conteúdo dos 26 milhões de livros do acervo da biblioteca do Congresso dos EUA, considerada a maior do mundo. Estima-se que a Google processa diariamente mais de 150 petabytes de dados (um petabyte equivale a praticamente 950 bilhões de páginas de texto), e que todas as palavras que qualquer ser humano pronunciou desde o início da História da Humanidade caibam em 5 exabytes - aproximadamente duzentos e quinze milhões de discos no formato Blu-Ray). Um zettabyte equivale a 250 bilhões de DVDs, e finalmente um yottabyte - o maior prefixo da atualidade - equivale a um trilhão de terabytes.

Em relatórios divulgados pela empresa de equipamentos para redes de computadores norte-americana Cisco ao longo de 2017, estima-se que entre 2016 e 2021 o aumento no tráfego mensal de dados considerando apenas dispositivos móveis será de sete vezes, saindo de cerca de 85 exabytes anuais para quase 600 exabytes anuais - um crescimento anualizado de 47%. O tráfego de dados total deve praticamente triplicar, saindo de 1,2 zettabytes por ano em 2016 para 3,3 zettabytes por ano em 2021. Assumindo que esses valores continuarão crescendo, em breve é provável que precisemos de novos prefixos para representar a quantidade inimaginável de dados que trafegam pela rede todos os dias.

Para ganhar ainda mais perspectiva sobre a quantidade de informação que está sendo criada a todo momento, Lori Lewis e Chadd Callahan, da Cumulus Media (a segunda maior operadora de estações de rádio nos EUA) compilaram em agosto de 2017 alguns dados referentes ao que acontecia na Internet a cada minuto. São cerca de 156 milhões de e-mails enviados, 4 milhões de vídeos assistidos no YouTube, 900 mil usuários realizando o login no Facebook, 3,5 milhões de buscas através da Google, 70 mil horas de vídeos assistidas via Netflix, 40 mil horas de música distribuídas pela Spotify, 750 mil dólares realizados em compras on-line e 342 mil aplicativos baixados para smartphones Apple e Android. Novamente - isso tudo acontece em apenas sessenta segundos.

Publicidade

Mas isso não é tudo - devemos considerar, também, o universo de dados gerados pelo crescente número de dispositivos conectados através da Internet das Coisas, cujo crescimento discutimos aqui. Com esse volume colossal de informações em estado permanente de criação e atualização, torna-se imperativo o desenvolvimento de ferramentas e tecnologias capazes de lidar com a análise e interpretação desses dados. Na semana que vem iremos falar sobre a maneira através da qual técnicas de Big Data procuram fazer isso. Até lá.

*Fundador da GRIDS Capital, é Engenheiro de Computação e Mestre em Inteligência Artificial

Opinião por Guy Perelmuter
Comentários

Os comentários são exclusivos para assinantes do Estadão.