Estamos em 2003, ainda na ressaca do século que há pouco findou, bem como dos
balanços que caracterizam as mudanças de calendário. Num desses balanços, a
Wikipedia, uma fonte
online bastante credível, apresenta uma lista de 8 notáveis
cientistas que moldaram tanto o século em que viveram quanto, assim se
espera, este que é agora o nosso. Os menos conhecidos são um matemático, Andrey
Nikolaevich Kolmogorov, e o médico responsável pela universalização do uso da
penicilina, Howard Walter Florey. Einstein e Heisenberg são dois nomes
inevitáveis por razões mais do que óbvias, e o mesmo se pode dizer de Freud, por
mais distintos que sejam os respectivos territórios intelectuais. Restam três
nomes: Francis Crick e James Watson, que descobriram o ADN, e ainda John von
Neumann (Neumann János, para ser mais preciso), talvez aquele que atravessou
mais campos do saber e que mais facilmente pode ser ligado a quase todos os
outros. Tal como Einstein ou Heisenberg, von Neumann esteve ligado à física
quântica; tal como Kolmogorov, foi um matemático notável (tendo ambos efectuado
investigações no campo da teoria das probabilidades). A ligação a Crick e Watson
é muito mais subtil, e para percebê-la talvez fizesse falta um nono nome, o de
Alan Turing. A ligar os quatro – note-se que 4 em 9, mesmo sendo um deles
acrescentado por nós, é um ratio excelente – uma palavra: código.
O código de Crick e Watson não é o mesmo de von Neumann e Turing, poderá
contrapor-se. E num sentido estritamente científico, onde a promiscuidade entre
disciplinas é desaconselhada, talvez não o seja. Mas é-o – e cada vez mais – num
sentido cultural, pois se algo caracteriza as inquietações desta transição de
século e de milénio, esse algo, verdadeiro propulsor das rápidas mutações
tecnológicas, é a possibilidade de olhar para o mundo já não como um livro –
essa seria a metáfora duma early Modernity – mas sim como um programa ou
conjunto de instruções a decifrar. A diferença é fundamental. Ambos podem ser
lidos, mas a legibilidade do «livro do mundo» era estática, contemplativa, mera
transformação do espanto numa mais domada admiração pela perfeição da obra
divina. Quaisquer acções sobre esse mundo, mesmo que mediadas pela técnica, eram
inicialmente, como o afirmou certa vez Hans Jonas, «superficiais e impotentes
para perturbar o seu afirmado equilíbrio»1. À medida que essa
modernidade incipiente se tornou no bem conhecido triunfo fáustico do homem
sobre os elementos, a metáfora foi sendo esquecida, de inadequada que se tornou
relativamente à realidade.
Pensar o mundo enquanto código, pelo contrário, implica antes de mais reduzir
as funções linguísticas a uma só, a imperativa. Ao longo das múltiplas
acepções da palavra «código», esse é talvez o núcleo mais constante: o código,
ao propor uma correspondência unívoca (e portanto desprovida de ambiguidade)
entre «o-que-quer-que-seja» e um determinado comportamento, só está aberto à
compreensão na medida em que, depois de resolvido o obstáculo da
decifração, dá lugar a
novas combinações, ou melhor, a novas ordens que desencadeiam comportamentos
distintos. Um exemplo, aparentemente inócuo mas na ordem do dia, é o do
software distribuído como
open source. Ao
contrário dos programas em que apenas se tem acesso ao humanamente ilegível
código executável, estes fazem-se acompanhar do código-fonte, estando por isso
abertos a revisões, a correcções e a acrescentos de novas funcionalidades.
Diríamos mesmo mais: pedem que lhes sejam feitas essas alterações e são
atractivos em boa parte justamente por esse facto.
Mas não sem que primeiro sejam cumpridas algumas condições, cada uma delas
remetendo para uma dimensão do conceito de «código». Historicamente,
o código é
antes de mais «lei», presumivelmente divina, como o código de Hammurabi que foi
a fonte de inspiração dos dez mandamentos mosaicos. Enquanto lei, demarca e
reduz uma infinidade de acções possíveis às quatro modalidades deônticas que
Greimas definiu como sendo a permissividade (liberdade, se na perspectiva do
sujeito e não na do destinador), a facultatividade (independência), a prescrição
(obediência) e a interdição (impotência). É sabido como até mesmo a moral cristã
foi incapaz de contrariar a tendência judaica para neutralizar as duas primeiras
em favor das últimas2, mas essa é uma questão lateral aos nossos
propósitos. Mais importante será acentuar que a lei que o código é se pretende o
mais universal possível. Recorde-se que a palavra provém de «codex», a
folha de papel dobrada que veiculava o conjunto de directivas dos imperadores
romanos, muito mais transportável do que o papiro e, como tal, chegando mais
facilmente a todo o império. Desde o início, portanto, o código vem associado a
alguma forma de controlo, um controlo simultaneamente eficaz e disseminado.
Para que tal eficácia (chamemos-lhe pragmática) possa ter lugar, a «lei» do
código pressupõe um outro tipo de lei, a de uma transformação
sintáctico-semântica. Tal é particularmente claro no caso dos códigos secretos
(mais uma vez, o primeiro exemplo conhecido é o chamado «César»), mas nem por
isso deixa de ocorrer naqueles a que a aprendizagem e o hábito retiraram essa
característica de secretismo (pois não é secreta a escrita numa língua
estrangeira para quem não a conhece, ou mesmo a escrita na língua materna para
um analfabeto?). Uma ilustração simples poderá ser-nos dada pelos semáforos que
regulam o trânsito: o código é aí o responsável pela sequência entre as três
luzes (sintaxe), pelo seu significado (semântica), pelo comportamento esperado
(pragmática) e, naturalmente, pelas consequências para os infractores em caso de
desobediência. A eficácia é de resto uma prerrogativa que condiciona a própria
criação do código. No exemplo anterior, para que as regras de trânsito sejam
cumpridas é necessário que os sinais sejam facilmente lidos (e portanto
assimilados enquanto comportamento esperado) sem qualquer ambiguidade. Num
código secreto, por mais que a condição de legibilidade se veja invertida3,
a necessidade de eficácia mantém-se como função da ausência de ambiguidade,
acrescentando-se-lhe ainda uma exigência técnica de brevidade.
Tais prerrogativas foram, de resto, a única limitação ao carácter
puramente convencional (e portanto arbitrário) do código tal como este foi
concebido até à primeira metade do século XX. Mas, como bem o documenta
Friedrich Kittler na comunicação
que apresentou à última Ars Electronica de Linz (dedicada justamente ao tema do
código), há uma diferença fundamental entre Samuel Morse, investigando
empiricamente nas tipografias em busca de uma eficácia na transmissão
telegráfica (é isso que faz com que o comprimento dos símbolos seja inversamente
proporcional à frequência, na língua inglesa, da letra que lhe corresponde), e
os muito mais sofisticados métodos de Claude Shannon e David Huffman para
reduzir o tamanho de uma mensagem binária. Com o advento da linguagem binária, o
puramente arbitrário cede o lugar a uma nova concepção do código enquanto
submissão a regras que no limite transcendem até mesmo o indivíduo que codifica,
na medida em que se lhe tornam alheias; com Turing, que acima reclamámos como
merecendo aceder ao panteão das figuras do século XX, tal concepção ganha
redobrado fôlego, levando a que o anteriormente arbitrário código se torne algo
passível de ser naturalizado. Disso dão conta as suas palavras reproduzidas no
já citado texto de Friedrich Kittler: «Há paralelos notáveis entre os problemas
do físico e os do criptógrafo. O sistema segundo o qual uma mensagem é
descodificada corresponde às leis do universo (…)». É certo que a intenção
subjacente a tais afirmações não era a de equivaler a Natureza a qualquer
código, e sim tentar demonstrar que o processo pelo qual se tenta desvendar um
código secreto, seja por via humana seja com o auxílio do computador, se depara
com métodos, hipóteses e especialmente incertezas equiparáveis aos que nos
habituámos a associar ao esforço da ciência para conhecer os fenómenos naturais.
Será o próprio Turing, contudo, e praticamente inaugurando o campo da
Inteligência Artificial, quem irá especular sobre a
possibilidade de um computador, através de um «motor» de aprendizagem, aumentar
a sua base de dados de conhecimentos e de decisões a ponto de ganhar uma
autonomia que extravasa a sua programação inicial, tornando-se de alguma forma
tão «opaco» quanto qualquer outra entidade natural. A partir do momento em que
Crick e Watson, apenas alguns anos depois, descobrem um novo tipo de código,
totalmente enraizado na physis e já não num
nomos humano, a
viragem está consumada e a ideia da Natureza como código a decifrar pode
adquirir a preponderância que hoje em dia conhecemos.
Compreende-se portanto que a edição deste ano do conceituado
festival Ars Electronica, que de alguma forma aqui secundamos, tenha tido o
código como temática comum tanto às conferências quanto às peças artísticas a
concurso. Quando um conceito se torna no atractor em torno do qual gravitam os
mais diversos domínios sociais e culturais, ameaçando degenerar numa espécie
de quase-ideologia, é também quando mais se revela a premente necessidade de
pensar e desconstruir esse mesmo conceito. De forma modesta, é essa a proposta
deste número da revista Interact.
1 «Técnica e responsabilidade:
Reflexões sobre as novas tarefas da técnica», in Ética, Medicina e Técnica,
p. 31.
2 Pensamos, por exemplo, na famosa
parábola kafkiana da entrada da Lei presente no capítulo «Na catedral» de O
Processo.
3 Uma espécie de «prova de fogo»
dos programadores são os chamados concursos de «obfuscated code»: quanto
mais ilegível (e ainda assim funcional) o código-fonte de um programa, mais bem
cotado será o programador. O cúmulo desta tendência «escolástica» é a invenção
de linguagens de programação igualmente indecifráveis, se não mesmo
impraticáveis, de que são exemplo o Befunge,
o Brainfuck e o
Intercal.
|