trans.gif (43 bytes) trans.gif (43 bytes)

  CÓDIGO ++

  [ Jorge Martins Rosa ]

trans.gif (43 bytes)
trans.gif (43 bytes)

 

 

 

 Estamos em 2003, ainda na ressaca do século que há pouco findou, bem como dos balanços que caracterizam as mudanças de calendário. Num desses balanços, a Wikipedia, uma fonte online bastante credível, apresenta uma lista de 8 notáveis cientistas que moldaram tanto o século em que viveram quanto, assim se espera, este que é agora o nosso. Os menos conhecidos são um matemático, Andrey Nikolaevich Kolmogorov, e o médico responsável pela universalização do uso da penicilina, Howard Walter Florey. Einstein e Heisenberg são dois nomes inevitáveis por razões mais do que óbvias, e o mesmo se pode dizer de Freud, por mais distintos que sejam os respectivos territórios intelectuais. Restam três nomes: Francis Crick e James Watson, que descobriram o ADN, e ainda John von Neumann (Neumann János, para ser mais preciso), talvez aquele que atravessou mais campos do saber e que mais facilmente pode ser ligado a quase todos os outros. Tal como Einstein ou Heisenberg, von Neumann esteve ligado à física quântica; tal como Kolmogorov, foi um matemático notável (tendo ambos efectuado investigações no campo da teoria das probabilidades). A ligação a Crick e Watson é muito mais subtil, e para percebê-la talvez fizesse falta um nono nome, o de Alan Turing. A ligar os quatro – note-se que 4 em 9, mesmo sendo um deles acrescentado por nós, é um ratio excelente – uma palavra: código.

O código de Crick e Watson não é o mesmo de von Neumann e Turing, poderá contrapor-se. E num sentido estritamente científico, onde a promiscuidade entre disciplinas é desaconselhada, talvez não o seja. Mas é-o – e cada vez mais – num sentido cultural, pois se algo caracteriza as inquietações desta transição de século e de milénio, esse algo, verdadeiro propulsor das rápidas mutações tecnológicas, é a possibilidade de olhar para o mundo já não como um livro – essa seria a metáfora duma early Modernity – mas sim como um programa ou conjunto de instruções a decifrar. A diferença é fundamental. Ambos podem ser lidos, mas a legibilidade do «livro do mundo» era estática, contemplativa, mera transformação do espanto numa mais domada admiração pela perfeição da obra divina. Quaisquer acções sobre esse mundo, mesmo que mediadas pela técnica, eram inicialmente, como o afirmou certa vez Hans Jonas, «superficiais e impotentes para perturbar o seu afirmado equilíbrio»1. À medida que essa modernidade incipiente se tornou no bem conhecido triunfo fáustico do homem sobre os elementos, a metáfora foi sendo esquecida, de inadequada que se tornou relativamente à realidade.

Pensar o mundo enquanto código, pelo contrário, implica antes de mais reduzir as funções linguísticas a uma só, a imperativa. Ao longo das múltiplas acepções da palavra «código», esse é talvez o núcleo mais constante: o código, ao propor uma correspondência unívoca (e portanto desprovida de ambiguidade) entre «o-que-quer-que-seja» e um determinado comportamento, só está aberto à compreensão na medida em que, depois de resolvido o obstáculo da decifração, dá lugar a novas combinações, ou melhor, a novas ordens que desencadeiam comportamentos distintos. Um exemplo, aparentemente inócuo mas na ordem do dia, é o do software distribuído como open source. Ao contrário dos programas em que apenas se tem acesso ao humanamente ilegível código executável, estes fazem-se acompanhar do código-fonte, estando por isso abertos a revisões, a correcções e a acrescentos de novas funcionalidades. Diríamos mesmo mais: pedem que lhes sejam feitas essas alterações e são atractivos em boa parte justamente por esse facto.

Mas não sem que primeiro sejam cumpridas algumas condições, cada uma delas remetendo para uma dimensão do conceito de «código». Historicamente, o código é antes de mais «lei», presumivelmente divina, como o código de Hammurabi que foi a fonte de inspiração dos dez mandamentos mosaicos. Enquanto lei, demarca e reduz uma infinidade de acções possíveis às quatro modalidades deônticas que Greimas definiu como sendo a permissividade (liberdade, se na perspectiva do sujeito e não na do destinador), a facultatividade (independência), a prescrição (obediência) e a interdição (impotência). É sabido como até mesmo a moral cristã foi incapaz de contrariar a tendência judaica para neutralizar as duas primeiras em favor das últimas2, mas essa é uma questão lateral aos nossos propósitos. Mais importante será acentuar que a lei que o código é se pretende o mais universal possível. Recorde-se que a palavra provém de «codex», a folha de papel dobrada que veiculava o conjunto de directivas dos imperadores romanos, muito mais transportável do que o papiro e, como tal, chegando mais facilmente a todo o império. Desde o início, portanto, o código vem associado a alguma forma de controlo, um controlo simultaneamente eficaz e disseminado.

Para que tal eficácia (chamemos-lhe pragmática) possa ter lugar, a «lei» do código pressupõe um outro tipo de lei, a de uma transformação sintáctico-semântica. Tal é particularmente claro no caso dos códigos secretos (mais uma vez, o primeiro exemplo conhecido é o chamado «César»), mas nem por isso deixa de ocorrer naqueles a que a aprendizagem e o hábito retiraram essa característica de secretismo (pois não é secreta a escrita numa língua estrangeira para quem não a conhece, ou mesmo a escrita na língua materna para um analfabeto?). Uma ilustração simples poderá ser-nos dada pelos semáforos que regulam o trânsito: o código é aí o responsável pela sequência entre as três luzes (sintaxe), pelo seu significado (semântica), pelo comportamento esperado (pragmática) e, naturalmente, pelas consequências para os infractores em caso de desobediência. A eficácia é de resto uma prerrogativa que condiciona a própria criação do código. No exemplo anterior, para que as regras de trânsito sejam cumpridas é necessário que os sinais sejam facilmente lidos (e portanto assimilados enquanto comportamento esperado) sem qualquer ambiguidade. Num código secreto, por mais que a condição de legibilidade se veja invertida3, a necessidade de eficácia mantém-se como função da ausência de ambiguidade, acrescentando-se-lhe ainda uma exigência técnica de brevidade.

Tais prerrogativas foram, de resto, a única limitação ao carácter puramente convencional (e portanto arbitrário) do código tal como este foi concebido até à primeira metade do século XX. Mas, como bem o documenta Friedrich Kittler na comunicação que apresentou à última Ars Electronica de Linz (dedicada justamente ao tema do código), há uma diferença fundamental entre Samuel Morse, investigando empiricamente nas tipografias em busca de uma eficácia na transmissão telegráfica (é isso que faz com que o comprimento dos símbolos seja inversamente proporcional à frequência, na língua inglesa, da letra que lhe corresponde), e os muito mais sofisticados métodos de Claude Shannon e David Huffman para reduzir o tamanho de uma mensagem binária. Com o advento da linguagem binária, o puramente arbitrário cede o lugar a uma nova concepção do código enquanto submissão a regras que no limite transcendem até mesmo o indivíduo que codifica, na medida em que se lhe tornam alheias; com Turing, que acima reclamámos como merecendo aceder ao panteão das figuras do século XX, tal concepção ganha redobrado fôlego, levando a que o anteriormente arbitrário código se torne algo passível de ser naturalizado. Disso dão conta as suas palavras reproduzidas no já citado texto de Friedrich Kittler: «Há paralelos notáveis entre os problemas do físico e os do criptógrafo. O sistema segundo o qual uma mensagem é descodificada corresponde às leis do universo (…)». É certo que a intenção subjacente a tais afirmações não era a de equivaler a Natureza a qualquer código, e sim tentar demonstrar que o processo pelo qual se tenta desvendar um código secreto, seja por via humana seja com o auxílio do computador, se depara com métodos, hipóteses e especialmente incertezas equiparáveis aos que nos habituámos a associar ao esforço da ciência para conhecer os fenómenos naturais.

Será o próprio Turing, contudo, e praticamente inaugurando o campo da Inteligência Artificial, quem irá especular sobre a possibilidade de um computador, através de um «motor» de aprendizagem, aumentar a sua base de dados de conhecimentos e de decisões a ponto de ganhar uma autonomia que extravasa a sua programação inicial, tornando-se de alguma forma tão «opaco» quanto qualquer outra entidade natural. A partir do momento em que Crick e Watson, apenas alguns anos depois, descobrem um novo tipo de código, totalmente enraizado na physis e já não num nomos humano, a viragem está consumada e a ideia da Natureza como código a decifrar pode adquirir a preponderância que hoje em dia conhecemos.

Compreende-se portanto que a edição deste ano do conceituado festival Ars Electronica, que de alguma forma aqui secundamos, tenha tido o código como temática comum tanto às conferências quanto às peças artísticas a concurso. Quando um conceito se torna no atractor em torno do qual gravitam os mais diversos domínios sociais e culturais, ameaçando degenerar numa espécie de quase-ideologia, é também quando mais se revela a premente necessidade de pensar e desconstruir esse mesmo conceito. De forma modesta, é essa a proposta deste número da revista Interact.

 


1 «Técnica e responsabilidade: Reflexões sobre as novas tarefas da técnica», in Ética, Medicina e Técnica, p. 31.

2 Pensamos, por exemplo, na famosa parábola kafkiana da entrada da Lei presente no capítulo «Na catedral» de O Processo.

3 Uma espécie de «prova de fogo» dos programadores são os chamados concursos de «obfuscated code»: quanto mais ilegível (e ainda assim funcional) o código-fonte de um programa, mais bem cotado será o programador. O cúmulo desta tendência «escolástica» é a invenção de linguagens de programação igualmente indecifráveis, se não mesmo impraticáveis, de que são exemplo o Befunge, o Brainfuck e o Intercal.