Número de links, seções, imagens, versões em diferentes idiomas e o histórico de edições dão a pista para a avaliação da página. Gonçalves diz que o trabalho consiste em desenvolver algoritmos que, baseados nesses critérios, identificam, por exemplo, que um texto com poucas referências externas ou modificado por muitas pessoas ao mesmo tempo não é confiável. Assim, o software qualifica milhares de páginas. "A ideia é levar essa lógica da Wikipedia para outros ambientes da web, como fóruns", diz o professor. A imensidão da internet também é tema de outro projeto financiado pelo Google. Na PUC-Rio, Thiago Nunes estuda maneiras de oferecer aos usuários formas de explorar uma grande base de dados.