Capítulo 7 — Information Theory


Being As Communion, a Metaphysics of Information
de William Dembski (237 páginas)

O capítulo 7 trata de conectar a metafísica da informação desenvolvida até então no livro (e especialmente o conceito de matriz de possibilidade) com as principais teorias da informação correntes, a saber, a teoria da informação de Shannon e de Kolmogorov.

A teoria da informação de Shannon estuda a transmissão de cadeias de caracteres através de um canal de comunicação, em que os caracteres façam parte de um alfabeto fixo e finito. Nessa teoria, a matriz de possibilidade com a qual se produz informação abrange as cadeias relevantes de caracteres do alfabeto — o que confere aspecto sintático a essa abordagem. Por isso, transmitir informação na teoria de Shannon é identificar uma cadeia de caracteres dentro dessa matriz de possibilidade e enviá-la através do canal de comunicação. Assim, uma possibilidade entre tantas cadeias de caracteres foi identificada, e as outras cadeias foram descartadas, e informação foi produzida.

Já a teoria da informação de Kolmogorov incorpora tanto a sintática como a semântica, além da computabilidade. A teoria de Kolmogorov (também conhecida como Teoria Algorítmica da Informação) fica na intersecção da teoria da probabilidade e da ciência da computação, e procura descrever o que faz uma cadeia de bits ser aleatória. De acordo com essa teoria, uma cadeia de bits é aleatória na medida em que essa cadeia seja também incompressível. Uma cadeia de 0s e 1s se torna mais aleatória na mesma medida que o menor programa de computador capaz de gerar essa cadeia se torna maior em comprimento. O comprimento do menor programa que produz uma certa cadeia de bits é a sua complexidade de Kolmogorov, ou complexidade algorítmica. Quanto menor for esse comprimento, menor é a aleatoriedade da cadeia de bits.

Então, no caso da teoria de Kolmogorov e no sentido da metafísica até aqui desenvolvida, a informação consiste não na identificação de cadeias individuais (como na teoria de Shannon), mas sim na identificação de coleções de cadeias que exibam o mesmo grau de aleatoriedade, calculada em termos de incompressibilidade. Essas coleções seriam as classes de equivalência de cadeias de caracteres, em que cadeias são tratadas como equivalentes se elas possuírem a mesma complexidade de Kolmogorov. Colocadas juntas, essas classes de equivalência constituem assim a matriz de possibilidade relevante para a teoria algorítmica da informação.

Tanto a informação de Shannon como a informação de Kolmogorov focam nas matrizes de possibilidade de cadeias de caracteres (ou nas suas classes de equivalência). Mas a informação também pode ter o seu foco no significado dessas cadeias, ainda que a mesma expressão linguística possa trazer itens diferentes de informação, dependendo de qual matriz de possibilidade ela faça parte, sujeita ao contexto de entendimento de alguém. De qualquer forma, não se deve confundir as abordagens matemáticas da informação como foram feitas por Shannon e Kolmogorov com o arcabouço geral da metafísica de informação, pois essas abordagens tem o seu devido lugar dentro desse arcabouço, mas não são coextensivas com ele.

Próximo capítulo:
Capítulo 8 — Intelligence vs. Nature?

Capítulo anterior:
Capítulo 6 — Measuring Information

Link do índice:
Indice


Referências

William Dembski, Being As Communion: A Metaphysics of Information. Ashgate Publishing Company, 2014, pp. 41-46.

Site do livro beingascommunion.com.

Site da Amazon para compra do livro.

Entrada sobre o livro Being As Communion na WikiTDI.

Anúncios