quinta-feira, 11 de junho de 2009

Órgãos sem Corpos-Gilles Deleuze - 3. Devir-máquina - Slavoj Zizek

Órgãos sem corpos – Gilles Deleuze
3. Devir-máquina
Slavoj Žižek
Tradução: Rodrigo Nunes Lopes Pereira

Talvez o cerne do conceito de repetição de Deleuze seja a idéia de que, em contraste com a repetição mecânica (não maquínica!) da causalidade linear, em uma instância própria de repetição, o evento repetido seja recriado em um sentido radical: ele (re)surge a cada momento como Novo (ou seja, “repetir” Kant é redescobrir a novidade radical de sua ruptura, de sua problemática, não repetir os enunciados que oferecem suas soluções). Fica-se tentado aqui a estabelecer uma conexão com a ontologia cristã de Chesterton, na qual a repetição do mesmo é o grande milagre: não há nada “mecânico” no fato de que o sol nasça de novo todas as manhãs; este fato, ao contrário, mostra o mais alto milagre da criatividade de Deus.1 O que Deleuze chama de “máquinas desejantes” concerne apenas a algo completamente diferente do mecânico: o “devir-máquina”. Em que consiste esse devir? Para muitos neuróticos obsessivos, o medo de voar tem uma imagem bastante concreta: fica-se assombrado pelo pensamento de quantas partes de tal máquina tão imensamente complicada como o avião moderno tem que funcionar tranquilamente para que o avião se mantenha no ar – uma pequena peça quebra em algum lugar, e o avião pode muito bem cair em espiral... Frequentemente fala-se da mesma maneira a respeito do próprio corpo: quantas pequenas coisas têm que funcionar tranquilamente para me manter vivo? – um minúsculo coágulo de sangue em uma veia, e eu morro. Quando se começa a pensar em quantas coisas podem dar errado, não se pode experimentar senão um pânico total e aterrador. A “esquizo” deleuziana, por outro lado, meramente se identifica com essa máquina infinitamente complexa que é o nosso corpo: ela experimenta essa máquina impessoal como sua afirmação máxima, regozijando-se em seu constante estímulo. Como Deleuze enfatiza, o que temos aqui não está relacionado a uma metáfora (o velho e tedioso tema das “máquinas substituindo humanos”), mas à metamorfose, ao “devir-máquina” do homem. É aqui que o projeto “reducionista” dá errado: o problema não é reduzir a mente ao processo “material” neuronal (substituir a linguagem da mente pela linguagem dos processos cerebrais, traduzir o primeiro no segundo), mas, sobretudo, compreender como a mente pode emergir apenas sendo encaixada na rede de relações sociais e complementos materiais. Em outras palavras, o verdadeiro problema não é “Como, de qualquer maneira, as máquinas podem IMITAR a mente humana?”, mas “Como a própria identidade da mente humana depende de suplementos mecânicos externos? Como ela incorpora as máquinas?”.
Em vez de lamentar a maneira como a externação progressiva de nossas capacidades mentais em instrumentos “objetivos” (desde escrever em um papel até depender de um computador) nos priva de potenciais humanos, poder-se-ia, portanto enfocar a dimensão libertadora dessa externação: quanto mais nossas capacidades são transpostas para máquinas externas, mais nós emergimos como sujeitos “puros”, na medida em que este esvaziamento corresponde ao surgimento da subjetividade dessubstancializada. Apenas quando nós pudermos contar inteiramente com “máquinas pensantes” é que nos confrontaremos com o vazio da subjetividade. Em março de 2002, a mídia noticiou que, em Londres, Kevin Warwick se tornou o primeiro homem cibernético. Em um hospital em Oxford, seu sistema neuronal foi conectado diretamente a uma rede de computadores; ele é assim o primeiro homem cujas informações serão alimentados diretamente, contornando os cinco sentidos. ESTE é o futuro: a combinação da mente humana com o computador (em vez da substituição do antigo pelo novo).
Nós tivemos outra prova deste futuro em maio de 2002 quando foi noticiado que cientistas da Universidade de Nova York tinham conectado um chip de computador pronto para receber sinais diretamente no cérebro de um rato, com o intuito de se poder controlá-lo (determinando-se a direção em que ele irá correr) por meio de um mecanismo de navegação (da mesma maneira que se faz correr um carro de brinquedo por controle remoto). Este não é o primeiro caso de conexão direta entre o cérebro humano e um sistema de computadores: já existem semelhantes mecanismos que permitem que pessoas cegas tenham informações visuais elementares sobre o ambiente circundante, os quais alimentam diretamente o cérebro, contornando o aparato de percepção visual (olhos, etc.). O que é novo no caso do rato é que, pela primeira vez, a “vontade” de um agente animal vivo, suas decisões “espontâneas” sobre os movimentos que ele irá fazer são tomadas por uma máquina externa. A grande questão filosófica aqui, claro, é: como o desafortunado rato “experimenta” seu movimento, o qual foi, efetivamente, decidido de fora? Ele continua a experimenta-lo como algo espontâneo (i.e., ele é totalmente inconsciente de que seus movimentos são manipulados?), ou ele esta ciente de que “algo está errado”, de que outro poder externo está comandando seus movimentos? Ainda mais crucial é aplicar o mesmo raciocínio a um experimento idêntico realizado com humanos (que, apesar de questões éticas, não seria muito mais complicado, tecnicamente falando, do que em relação ao rato). No caso do rato, pode-se argumentar, não se poderia aplicar a essa experiência a categoria humana de “experiência”, como seria o caso se ela fosse feita com um ser humano. Então, mais uma vez, um ser humano cujos movimentos são comandados de fora continua a vivenciar seus movimentos como algo espontâneo? Ele permanecerá totalmente inconsciente de que seus movimentos são manipulados, ou estará ciente de que “alguma coisa está errada”, de que um poder exterior está comandando seus movimentos? E como, precisamente, este “poder externo” aparecerá – como algo “dentro de mim”, uma inexorável pulsão interna, ou como uma simples coerção externa?2 Talvez a situação seja aquela descrita no famoso experimento de Benjamin Libet3; o ser humano comandado continuará a vivenciar o impulso para se mover como sua decisão “espontânea”, mas – devido ao famoso meio segundo de defasagem – ele conservará a liberdade mínima para BLOQUEAR essa decisão. É também interessante que aplicações desse mecanismo foram mencionadas pelos cientistas e repórteres: os primeiros artigos concerniam ao par ajuda humanitária e campanha antiterrorista (alguém poderia usar os ratos ou outros animais manipulados para contactar vítimas de um terremoto sob os escombros, bem como para aproximar-se de terroristas sem arriscar vidas humanas). E o crucial que se deve ter em mente aqui é que essa estranha experiência da mente humana diretamente integrada a uma máquina não é a visão de um futuro ou de algo novo, mas o vislumbre de algo que sempre esteve em curso, que está aqui desde o começo, na medida em que é co-substancial à ordem simbólica. O que muda é que, confrontada com a materialização direta da máquina, sua integração direta à rede neuronal, não se pode mais sustentar a ilusão da autonomia da personalidade. É notório que os pacientes que necessitam de diálise no início experimentam um devastador sentimento de desamparo: é difícil aceitar o fato de que a própria sobrevivência depende de um dispositivo mecânico que eu vejo aí fora, diante de mim. Todavia, o mesmo vale para todos nós: em termos um tanto exagerados, todos nós estamos na dependência de um aparato simbólico-mental de diálise.
A tendência no desenvolvimento dos computadores é em direção à sua invisibilidade. As grandes máquinas ruidosas com misteriosas luzes que piscam serão cada vez mais substituídas por minúsculos bits encaixando-se imperceptivelmente em nossos ambientes “normais”, permitindo que eles funcionem mais facilmente. Os computadores se tornarão tão pequenos que eles serão invisíveis, em todos os lugares e em parte alguma – tão poderosos que irão sumir da vista. Poderíamos tão somente relembrar como são os carros de hoje, onde muitas funções ocorrem facilmente por causa dos pequenos computadores que nós frequentemente ignoramos (abertura de janelas, aquecimento...). Em um futuro próximo, teremos cozinhas computadorizadas, roupas, óculos e sapatos. Longe de ser uma questão para um futuro distante, essa invisibilidade já está aqui: a Phillips planeja em breve colocar no mercado um fone e tocador de música integrado a uma jaqueta de tal maneira que não apenas será possível vesti-la normalmente (sem preocupação com o que poderá acontecer com o mecanismo digital), mas até mesmo lavá-la sem dano ao equipamento eletrônico. Esta desaparição do campo de nossa experiência sensória (visual) não é tão inocente quanto pode parecer: a mesma característica que fará a jaqueta da Phillips algo fácil de se lidar (não mais uma máquina frágil e incômoda, mas uma prótese quase orgânica de nosso corpo) irá conferir-lhe a qualidade de uma espécie de fantasma de um Mestre invisível e onipotente. A prótese maquínica será menos um aparato externo com quem interagimos, e mais parte de nossa direta experiência de nós mesmos como organismos vivos – consequentemente, descentrando-nos a partir de dentro. Por essa razão, o paralelo entre o crescimento da invisibilidade dos computadores e o fato notório de que quando as pessoas aprendem algo suficientemente bem elas deixam de ser conscientes disso, é enganoso. O sinal de que aprendemos uma língua é que nós não precisamos mais enfocar suas regras: nós não apenas falamos-na “espontaneamente”, mas uma atenção ativa em suas regras até mesmo nos impede de falarmos fluentemente. Contudo, no caso da língua, nós anteriormente temos que aprendê-la (“tê-la em nossa mente”), enquanto que computadores invisíveis em nossos ambientes estão aí fora, não atuando “espontaneamente”, mas simplesmente cegamente.
Poder-se-ia aqui dar um passo a mais: Bo Dahlbom está certo, em sua crítica de Dennett4, onde ele insiste no caráter SOCIAL da “mente” – não apenas as teorias da mente são obviamente condicionadas por seu contexto social, histórico (a teoria de Dennett de múltiplos esquemas rivais não se mostra enraizada no capitalismo tardio “pós-industrial”, com seus motivos de competição, descentralização, etc.? – uma noção também desenvolvida por Fredric Jameson, que propôs uma leitura de Consciência Explicada como uma alegoria do capitalismo atual). De maneira muito mais importante, a insistência de Dennett em como ferramentas – inteligência externalizada com as quais os humanos contam – são parte inerente da identidade humana (é sem sentido imaginar um ser humano como uma entidade biológica SEM a complexa rede de suas ferramentas – tal noção seria como, por exemplo, um ganso sem suas penas), abre uma via que poderia ir muito mais longe do que vai o próprio Dennett. Dado que, para colocar nos bons e velhos termos marxistas, o homem é a totalidade de suas relações sociais, por que Dennett não dá o próximo passo lógico e analisa diretamente esta rede de relações sociais? Este domínio da “inteligência externalizada”, das ferramentas até a própria linguagem, especialmente, forma um domínio próprio, que é o que Hegel chamou de “espírito objetivo”, o domínio da substância artificial como oposta à substância natural. A fórmula proposta por Dahlbom então é: da “Sociedade de Mentes” (noção desenvolvida por Minsky, Dennett e outros) para “Mentes da Sociedade” (i.e., a mente humana como algo que pode emergir e funcionar apenas dentro de uma complexa rede de relações sociais e suplementos artificiais mecânicos que “objetivam” a inteligência).



1 G.K.Chesterton, Orthodoxy, San Francisco: Ignatius Press 1995, p. 65.

2 Cognitivistas diversas vezes nos advertiram para levar em conta uma evidência de senso comum: claro que podemos nos entregar a especulações sobre como nós não somos os agentes causais de nossos atos, de como nossos movimentos corporais são comandados por um misterioso espírito mau, no sentido em que apenas aparentemente decidimos livremente o que nossos movimentos fazem. Na falta de boas razões, tal cinismo é, no entanto, simplesmente injustificado. Não obstante, o experimento com o rato não oferece uma razão pertinente para considerar tal hipótese?

3 Benjamin Libet, "Unconscious Cerebral Initiative and the Role of Conscious Will in Voluntary Action," in The Behavioral and Brain Sciences, 1985, Vol. 8, p. 529- 539, and Benjamin Libet, "Do We Have Free Will?", in Journal of Consciousness Studies, 1999, Vol. 1, p. 47-57.

4 Bo Dahlbom, "Mind is Artificial," in Dennett and His Critics, ed. by Bo Dahlbom, Oxford: Blackwell 1993.

Um comentário: