- A Teoria Matemática da Informação e a eficiência na recuperação da Informação - 23 de junho de 2025
Claude Shannon e Warren Weaver desenvolvem a teoria na década de 1940 e possui grande influência no período da guerra fria, onde a disputa de poder era através de estudos científicos e avanços tecnológicos, ou seja, a Teoria Matemática da Informação (TMI) se torna um instrumento estratégico de guerra. Consequentemente, a princípio da teoria preocupava-se em possibilitar a transmissão de mensagens através de canais, garantindo que a mensagem fosse recebida com destreza, de forma que diminuísse a interferência de ruídos. Para Araújo (2009, p. 193) as questões relativas desta teoria estão aplicadas em três níveis sendo: O primeiro nível trata dos problemas técnicos; o segundo nível se refere aos problemas semânticos e o terceiro nível é o pragmático. Essa abordagem, estritamente técnica define elementos fundamentais da teoria como: fonte, emissor, receptor, canal, ruído, codificação, decodificação, entropia e redundância.
Esses conceitos para o campo da Ciência da Informação (CI) permite visualizar os sistemas de recuperação, como por exemplo os catálogos digitais, sendo canais de comunicação entre o acervo como a fonte; o usuário como receptor e, passando pela interface do sistema que seria o canal. Sendo assim, “São elaboradas fórmulas para prever quanto texto pode ser transmitido em cada formato, a partir do repertório de diferentes grupos, respeitando a capacidade de cada canal, entre outros aspectos” (Araújo, 2009, p. 194). Portanto, os avanços dos sistemas de informação, especificamente com a digitalização massiva de acervos bibliográficos, impuseram desafios significativos à forma como organizamos e recuperamos informação. “A informação é definida como uma medida da incerteza – não como aquilo que é informado, mas como aquilo que se poderia informar (Araújo, 2009, p. 194). A informação, portanto, para além de sua codificação técnica, também interliga significado, contexto, intenção e interpretação.
No âmbito da Biblioteconomia, o catálogo digital é a principal ferramenta para localizar documentos e, portanto, deve apresentar alta eficiência na recuperação da informação. Em consonância surge a entropia, conceito central da TMI que representa a quantidade de incerteza ou imprevisibilidade nos dados (Araújo, 2009). Em termos práticos, consultas redundantes, como “educação” possuem alto índice de entropia, uma vez que podem recuperar milhares de documentos. Esse elevado grau de imprevisibilidade dificulta a recuperação eficiente, pois o sistema retorna um volume excessivo de resultados, a maior parte sendo irrelevante para o usuário.
A Biblioteconomia adota mecanismos que, embora não previstos diretamente por Shannon e Weaver, a teoria se complementa como por exemplo: os vocabulários controlados e a indexação consistente funciona como forma de codificação que reduzem a entropia do sistema. Entretanto, os mecanismos automáticos como corretores ortográficos e sugestões de termos de busca relacionados tentem minimizar esses ruídos, a eficiência do serviço de recuperação em catálogos digitais depende da integração de múltiplos subsistemas, entre eles: a qualidade da catalogação, a atualização dos metadados, a interface, a acessibilidade da plataforma e o letramento informacional dos usuários.
Em suma, a Teoria Matemática da Informação (TMI) contribui significativamente para o entendimento da eficiência técnica dos sistemas de recuperação da informação, oferecendo ferramentas para medir e otimizar a codificação, transmissão e decodificação de dados. Todavia, sua aplicação na Biblioteconomia demanda uma perspectiva ampliada, que integre também as dimensões cognitivas, sociais e culturais da informação, a fim de atender às reais necessidades dos usuários e garantir a democratização do acesso ao conhecimento.
Além disso, Ranganathan desenvolveu em 1933 a chamada Classificação Colonada (Colon Classification), também conhecida como: classificação de “dois pontos” (:), por utilizar esse símbolo como delimitador sintático. Este sistema introduziu a ideia de classificação facetada, apoiando-se em cinco categorias fundamentais: Personalidade, Matéria, Energia, Espaço e Tempo. Essa abordagem possibilita uma descrição mais precisa, flexível e combinatória dos assuntos, adaptando-se a diferentes áreas do conhecimento. Conforme explicam Tristão, Fachin e Alarcón (2004, p. 165):
“A classificação facetada é conhecida como um esquema analítico-sintético porque envolve dois processos distintos: a análise do assunto em facetas e a síntese dos elementos que constituem o mesmo, sendo, portanto, aplicável a qualquer área do conhecimento.”
Em consonância com essas preocupações em organizar e tornar acessível o conhecimento, surge na década de 1940 a Teoria Matemática da Informação (TMI), desenvolvida por Claude Shannon e posteriormente expandida por Warren Weaver. Este campo da engenharia e da matemática, estuda a quantificação, armazenamento, codificação e transmissão da informação, sendo a base de tecnologias como compressão de dados, criptografia, e redes de comunicação. Apesar de atuarem em campos distintos, é possível identificar conexões conceituais entre os trabalhos de Ranganathan e de Shannon e Weaver. Enquanto Ranganathan concentrava-se na organização do conhecimento para promover o acesso eficiente, desenvolvendo leis que antecipam preocupações com usabilidade e recuperação da informação, Shannon e Weaver tinham como objetivo otimizar a transmissão da informação, tratando-a como um fenômeno quantitativo, modelado matematicamente. A entropia, por exemplo, foi introduzida como uma medida da incerteza associada a uma fonte de informação.
Essa aproximação teórica ganha ainda mais relevância na era digital. A classificação facetada de Ranganathan influenciou o desenvolvimento de sistemas de recuperação da informação que, mais tarde, se beneficiariam dos fundamentos da teoria da informação para otimizar algoritmos de indexação em ambientes digitais. Como observa Almeida (2022, p. 109):
[…] Ranganathan continuou a interessar-se e foi mesmo influenciado pela sua formação inicial, tendo extraído terminologia do campo matemático e científico para a Biblioteconomia, sendo o sentido prático e o seu gosto pela teoria influências da sua formação. Verifique-se, pois, a utilização de conhecimento matemático e estatístico para comparação dos vários sistemas de classificação existentes ou a aplicação de teoremas a dados bibliográficos […].
Dessa forma, é possível afirmar que Ranganathan trouxe uma visão humanística e estruturada da informação, centrada no usuário e na lógica conceitual dos sistemas de organização do conhecimento. Em contrapartida, Shannon e Weaver abordaram a informação como um fenômeno matemático e comunicacional, contribuindo de forma decisiva para os fundamentos técnicos da computação e das telecomunicações. Ambos são considerados figuras fundamentais em seus respectivos campos, e suas ideias, ainda que originadas em contextos distintos, se complementam na contemporaneidade, na medida em que a organização conceitual e a transmissão eficiente da informação tornaram-se pilares essenciais da sociedade da informação.
REFERÊNCIAS
ALMEIDA, P. de. Shiyali Ramamrita Ranganathan: uma biografia. Páginas a&b: arquivos e bibliotecas, [S. l.], p. 99–119, 2022. Disponível em: https://ojs.letras.up.pt/index.php/paginasaeb/article/view/12654. Acesso em: 16 jun. 2025.
ARAÚJO, Carlos Alberto Ávila. Correntes teóricas da ciência da informação. Ciência da informação, v. 38, p. 192-204, 2009. Disponivel em: SciELO Brasil – Correntes teóricas da ciência da informação Correntes teóricas da ciência da informação. Acesso em: 10 jun. 2025.
TRISTÃO, Ana Maria Delazari; FACHIN, Gleisy Regina Bóries; ALARCON, Orestes Estevam. Sistema de classificação facetada e tesauros: instrumentos para organização do conhecimento. Ciência da informação, v. 33, p. 161-171, 2004.
