sábado, 28 de janeiro de 2012

Doença de Morgellons


A Doença de Morgellons… ( TRANSGÊNICOS ? )

Não se engane, essa é uma doença feita 100% pelo homem, com recursos nanotecnológicos, quimicos, científicos, físicos, e, já comprovadamente, aspergida pelos Chemtrails (pesquise isso!) …e tudo parte de um plano… ah sim, a grande massa não saber também faz parte do jogo… informe-se!
“Morgellons Disease” (Doença de Morgellons) é uma doença que provoca rupturas na pele pela erupção de fibras multicoloridas absolutamente desconhecidas (aparentemente constituídas de celulose contendo minerais como alumina e calcita, mas de DNA desconhecido) com desfiguração e infecções secundárias, especialmente em crianças e idosos, designada “Morgellons disease”, se espalhou por todos os 50 estados dos EUA nos últimos 10 anos, concomitantemente à expansão dos transgênicos. Já há casos diagnosticados em países da Europa, América Latina e África, no Japão, Filipinas, Indonésia e Austrália.
O problema se agravou a ponto de ser instituída uma pesquisa oficial do “Center for Disease Control” (CDC – USA) para determinar as causas dessa síndrome. Há suspeitas científicas de que é causada por Agrobacterium tumefasciens, o organismo mais alterado e trabalhado pela engenharia genética, que “ensinou” ao homem essa pseudotecnologia e fornece as Ti-Plasmids (Ti = Tumor Inducing, que produzem tumores nas raízes), estruturas de transferência de material genético que são usadas para carregar e inserir os transgenes.

-São fibras um pouco elásticas e peganhentas -Algumas parecem-se com teias de aranha, mas não o são.
Como os Agrobacteria são muito promíscuas na aquisição de ácidos nucleicos e estão presentes em todos os solos do mundo, é provável que tenham incorporado genes de virulência para humanos, por exemplo, dos “promotores virais” usados na montagem de transgenes e seus mutantes, que continuamente se desprendem dos milhões de toneladas de resíduos transgênicos que se decompõem pelos campos cultivados, espalhando-se pelo ambiente. Isso, sendo verdade, preocupa pesquisadores devido aos programas de vacinas anti-gripais (H1N1, Influenza, etc) pelo poder de aumentar o aparecimento do Morgellons.

Se essas suspeitas forem confirmadas, fica em aberto a possibilidade de que a “Morgellons disease” seja apenas a “ponta do iceberg” de inúmeras doenças novas, mas sem sintomas tão visíveis, que podem estar sendo geradas pela contaminação transgênica do ambiente e alimentos, pois os trangenes perduram nas micelas de argila do solo, na água e no trato digestivo de animais – onde podem ser absorvidos por inúmeros micróbios benéficos ou inóquos à saúde até o momento. Outra possibiliade seria devido à fumegação dos Chemtrails, que talvez estivessem despejando essas químicas e biologias estranhas sobre nossas cabeças, água e terrenos de plantios...

terça-feira, 24 de janeiro de 2012

Acadêmicos & Academisno


páginas - capítulo do livro principal - <erwin -1> a informação em ciências biológicas





A BIOLOGIA QUÂNTICA TEM 100 ANOS

MAS A NOVA NATUROLOGIA

CONTINUA A IGNORAR OS SEUS FUNDAMENTOS





ACADÉMICOS & ACADEMISMO


22/Abril/1999 - Embora seja uma disciplina decisiva para fundamentar a Nova Naturologia, a biologia quântica permanece ausente dos currículos escolares e não há indícios de que venha tão cedo a ter, na formação naturológica, a importância prática efectiva que em teoria alguns lhe reconhecem.


Alguns, poucos, não todos nem muitos.


Onde o suporte científico da teoria quântica se torna mais necessário é, obviamente, nas terapias vibratórias, que escapam à análise científica vulgar, que não tem instrumentos de análise e de medida para estudar a chamada «área quântica» das energias.


Diga-se, já agora, que o único instrumento de medida capaz de medir, detectar, avaliar e conhecer as energias da área quântica é o próprio ser humano, que aliás não tem outra missão na Terra além dessa.


O espectro electro-magnético traduz a área conhecida pela ciência ordinária. Aquém e além desse espectro, é o mundo fantasmagórico e desconhecido a que matemáticos ilustres, desde há um século, chamaram área quântica, sem se entenderem muito bem entre si, sobre e daquilo que falam.


Mas esse «campo unificado» continua problemático porque nenhuma das especialidades - seja a Física, seja a Química, seja a Biologia - consegue elaborar metodologicamente essa área unificada.


O caso da Homeopatia, como terapia vibratória, é mais uma vez extremamente elucidativo dessa dificuldade da ciência académica e materialista, que trabalha apenas no campo do espectro electromagnético, remetendo para outros especialistas - nomeadamente os matemáticos - o que escapa a essa área conhecida.


Ora, quando entram matemáticos em cena, nenhum dos outros das outras especialidades lá consegue entrar. É aqui, aliás, que reside o poder despótico das especialidades. É que cada uma delas só pode ser julgada, avaliada, conhecida e dominada pelos pares do reino, pelos colegas da mesma corporação, pelos iluminados detentores da mesma nomenclatura, tornada uma cabala hermética e fechada.


É a história dos exames e dos júris de exames. Quem não alinha nos académicos borlados, chumba. Para passar tem que alinhar. E assim se prolonga, geração atrás de geração, a linhagem da estupidez.


É o chamado corporativismo, que tão bons frutos tem dado em ditadura, sendo neste corporativismo que se baseia o poder inexpugnável do poder cientifista em geral e do poder académico-universitário em particular.


Poder que continua a oprimir gerações de estudantes atrás de gerações, formando-as no mesmo esquema e esmagando aqueles que, por espírito criador, porventura quisessem fugir um milímetro desse neo-esclavagismo instalado em nome do despotismo iluminado.


ASSALTO À FORTALEZA


A matemática «quântica» forma-se então como uma fortaleza inexpugnável, a que só os privilegiados têm acesso.


Raramente um prémio Nobel da Física se atreve a entrar na Química (embora sejam convizinhos), raramente um prémio Nobel da Química se atreve a entrar na Matemática. E assim sucessivamente.


Erwin Schrodinger, Prémio Nobel da Física, ficou como um dos raros que se atreveram a formular hipóteses de unificação entre «Vida, Espírito e Matéria», título de um livro muito curioso que me permito comentar aqui e muito ao de leve.


Esse é, com efeito, o título (interrogado) de um seu ensaio de 1944, um ano antes de terminar a hecatombe da 2ª guerra mundial, editado em língua portuguesa pelas Publicações Europa-América. (1963)


Anti-nazi refugiado na Inglaterra (para alguma coisa as democracias hão-de servir), Erwin Schrodinger é considerado um dos mestres criadores da teoria dos quanta, que tão fortemente marca a moderna teoria atómica.


Foi um dos primeiros, com Einstein, a erguer-se contra as teorias indeterministas, outra peça-chave no sistema de relações entre ciências convergentes mas ignorantes entre si.


A passagem de informação (bioinformação) entre gerações (sem a qual não existiria vida) é abordada no ensaio de Schrodinger, que humildemente não hesita em se aventurar numa ciência - a genética - que obviamente não é a sua especialidade.


E recorre a Goethe - esse gigante da ciência erradamente catalogado na história da literatura - para explicar, em linguagem poética, a realidade desse continuum entre passado, presente e futuro:


«O ser é eterno, porque as leis existem para conservar os tesouros da vida, dos quais o universo tira a beleza» - disse Goethe que até nem foi prémio Nobel da Literatura comó Saramago.


Permanência essa, continuum esse que Schrodinger explica assim com grande clareza:


«Qual a medida da constância ou permanência que se observa nos factores hereditários e qual devemos, portanto, atribuir às estruturas materiais que as suportam?»


E adianta: «Não devemos esquecer que o que se transmite do pai para o filho não é esta ou aquela particularidade, nariz arqueado, dedos curtos, tendência para o reumatismo, hemofilia, dicromatismo, etc. (...)


«Na realidade, é o conjunto da estrutura (tetradimensional) do «fenótipo», isto é, tudo o que é visível e aparente no indivíduo, que é reproduzido sem alteração apreciável durante gerações, conservado imutável durante séculos - ainda que não em dezenas de milhares de anos - e transmitido pela estrutura nuclear de duas células que se unem para constituir a célula-ovo fecundada. Trata-se de uma coisa maravilhosa - sublinha Schrodinger - , de que só há uma maior : (...) Refiro-me ao facto de nós, cujo ser total resulta da maravilhosa interacção desses processos hereditários, termos o poder de descobrir as suas leis.»


MUTAÇÕES E TRANSMUTAÇÕES


Com esta humildade do verdadeiro cientista e do verdadeiro espírito criador de investigação, Erwin Schrodinger entra a seguir no tema-chave das mutações, fronteira não só entre ciências profanas, mas o que é talvez ainda mais importante, entre ciência profana e ciências sagradas, das quais a Alquimia é imediatamente evocada quando se fala de Mutação e Transmutação:


«De Vries descobriu que, na descendência (de) certos indivíduos - dois ou três em milhares - exibiam pequenas alterações, como que saltos - fenômeno a que chamou «mutação».


Apropósito, Erwin Schrodinger sublinha:


«O facto significativo é a discontinuidade do processo, que lembra ao físico a teoria quântica - quer dizer, de que há energias intermediárias ocorrendo entre dois níveis vizinhos de energia.»


E para que não restem dúvidas, Schrodinger afirma lapidarmente :


«Poderia, assim, chamar à teoria das mutações de De Vries a teoria quântica da biologia.»


Eis a grande porta aberta para a Nova Naturologia quântica e, portanto, para a fundamentação científica (estatística e matemática, se quisermos) das terapias vibratórias, como a Homeopatia, até hoje ignorada da ciência académica que teima em ser académica, dogmática, míope, estúpida e mesquinha.


Schrodinger entra então numa explicação luminosa da sua área predilecta:


«As mutações são na realidade devidas a saltos quânticos que se passam na molécula do gene. Mas a teoria quântica só existia há dois anos, quando de Vries publicou, em 1902, pela primeira vez, o resultado das suas observações. Não admira, portanto, que fosse necessário uma geração para descobrir a conexão íntima entre os dois fenómenos.»


Se, como lembra Schrodinger, as coisas se passaram assim entre oficiais do mesmo ofício, não devemos desesperar de que as terapias vibratórias em geral e a Homeopatia em particular venham finalmente a ser entendidas pela ciência académica, mesquinha e míope que teima em ignorá-las.


Continuando a seguir Schrodinger, sabemos que «as mutações constituem o material adequado sobre o qual se exerce o mecanismo de selecção natural, originando as espécies por eliminação dos inaptos e sobrevivência dos mais aptos, segundo o processo que descreveu Darwin (...) .»


Na teoria de Darwin - reafirma o físico Schrodinger - apenas temos de substituir as suas «ligeiras variações acidentais» pelo termo «mutações», tal como a teoria quântica substituiu a «transmissão contínua de energia» pelas «transições quânticas».


HISTÓRIA DA INFORMAÇÃO GENÉTICA


Aproveita-se para reproduzir aqui a síntese que Schrodinger realiza sobre a história da informação genética, de inegável importância na Nova Naturologia:


«O eixo da teoria (da hereditariedade), as leis que regem, em gerações sucessivas, a distribuição dos caracteres pelos quais diferem os progenitores e, de modo especial, a importante distinção recessivo-dominante são devidos ao mundialmente famoso abade Gregor Mendel (1822-1884) ».


«Mendel nada sabia sobre mutações e cromossomas. No seu jardim conventual em Brunn (Brno) fez experiências com ervilheiras, criando diferentes variedades, cruzando-as e observando as descendências da primeira, segunda, terceira, etc. gerações».


«Fez assim experiências com mutantes que ele encontrou já feitos na natureza. Publicou o resultado dos seus trabalhos em 1866, nas «Actas» da revista «Naturforschender Verein in Brunn». Ninguém parece ter-se interessado com este passatempo do abade e ninguém, com certeza, teve a menor ideia de que as suas descobertas constituíssem no século XX a base de uma ciência em tudo nova, a mais interessante em nossos dias».


«O artigo, que havia sido esquecido, foi redescoberto apenas em 1900, simultâneamente e de forma independente, por Correns (Berlim), De Vries (Amsterdão) e Tschermak (Viena)».


Notem-se, neste texto do Prémio Nobel da Física, duas coisas notáveis:


·         a) A humildade de um físico considerar a ciência da hereditariedade « a mais interessante em nossos dias.»


·         b) A «coincidência» de as descobertas do abade Gregor Mendel virem a ser redescobertas simultâneamente em Berlim, Amesterdão e Viena, ilustrando, de forma espectacular, a lei da ressonância vibratória cósmica enunciada por Etienne Guillé e aquilo a que Carl Gustav Jung chamou lei cósmica da «sincronia».


Lei angular da Nova Naturologia e que só neste século, à volta dos anos 80, viria a ser descoberta, estudada e desenvolvida pelo biólogo quântico Etienne Guillé, a lei da ressonância vibratória é a base da Cosmobiologia ocidental, tal como a lei do yin-yang, ou princípio único, é a base da cosmobiologia taoísta.


Desde 1900, portanto, que sabemos isto: A Biologia será quântica ou não será... Ou será a merda que tem sido.


No entanto e apesar de tão fundamental em ciências da vida, ela continua a pairar, apenas como um fantasma, sobre as cabeças de sucessivas gerações de estudantes.


Bem o compreendemos, no curso de Naturologia, onde a base da biologia quântica se torna um factor da sua própria sobrevivência .


Enquanto o alicerce da biologia quântica não for implantado, a Nova Naturologia não terá bases sólidas e tudo se passa num limbo de empirismos, contradições e, provavelmente, de polémicas estéreis com a ciência médica estabelecida, ela também comodamente sentada no seu cadeirão académico, ela também comodamente ruminante de teorias que já eram velhas há um século, precisamente quando irrompeu a teoria quântica.


Mais uma vez, Schrodinger diz em 1944 as palavras que têm de ser ditas e repetidas em 1999 e que deverão continuar a ser repetidas até que ouvidos inteligentes e inteligências menos surdas se abram:


«À luz dos conhecimentos actuais, o mecanismo da hereditariedade funda-se na própria base da teoria quântica. Esta teoria - lembra didacticamente Schrodinger ... foi emitida por Max Planck em 1900. A moderna genética provém da redescoberta dos trabalhos de Mendel, feita por De Vries, Correns e Tchermak (1900) e dos trabalhos publicados por De Vries sobre as mutações (1901-1903).


«Deste modo, as origens da duas grandes teorias coincidem e não admira que ambas tivessem de conseguir certa maturidade, antes de atingir a fase da sua ligação .


«No que respeita à teoria quântica, só em 1926-27 é que a teoria quântica das ligações químicas foi proposta nas suas linhas gerais por W. Heitler e F. London.


«A teoria de Heitler-London envolve as mais subtis e complexas concepções sobre o último desenvolvimento da teoria quântica (chamada «mecânica quântica» ou «mecânica ondulatória»). »


Na impossibilidade de reproduzir todo o ensaio de Schrodinger, mas convidando os nossos professores a ir lê-lo rapidamente, termino com mais uma citação que ajuda à unificação holística da Nova Naturologia:


«A mecânica quântica é o principal aspecto teórico que interpreta todos os tipos de agregados atómicos encontrados na Natureza.


«A ligação Heitler-London é o único aspecto da teoria que não foi inventado com o propósito de explicar a ligação química.» ₪

segunda-feira, 16 de janeiro de 2012

Processos Quânticos na Natureza


Tunelamento quântico em processos bioquímicos

                                                                                         Publicado em 29/07/2011 

Por: Carlos Alberto dos Santos 

Professor-visitante sênior da Universidade Federal da Integração Latino-americana

Emaranhamento quântico na biologia. Será?

Durante muito tempo acreditou-se que as estranhas propriedades da mecânica quântica se restringiam ao mundo físico microscópico. Descobertas recentes mostram que não é bem assim. Carlos Alberto dos Santos aborda o tema em sua coluna de julho.
Estudos mostram que as leis da mecânica quântica também valem na natureza, extrapolando assim o campo da física e invadindo a biologia. Entender melhor essas leis é essencial para o desenvolvimento de computadores quânticos. (montagem: Sofia Moutinho)
Em seu maravilhoso livro O que é vida? O aspecto físico da célula viva, o físico austríaco Erwin Schrödinger (1887-1961) refere-se aos organismos multicelulares como a “mais requintada obra-prima já conseguida pelas leis da mecânica quântica”. Frente a recentes observações de efeitos quânticos na natureza e em seres vivos, não podemos deixar de apreciar o caráter premonitório da sua frase.

O tunelamento quântico, tema explorado e explicado na última coluna, está indiscutivelmente presente em processos bioquímicos e é consequência da dualidade partícula-onda, um dos grandes mistérios da natureza para o físico estadunidense Richard Feynman (1918-1988).

Outro fenômeno que se vale da dualidade partícula-onda é o emaranhamento ou entrelaçamento quântico, o fermento de um intenso debate na comunidade científica a respeito de sua observação em sistemas biológicos. Trata-se de uma propriedade ainda mais complexa e menos intuitiva do que o tunelamento e de cujo controle depende, por exemplo, o desenvolvimento da computação quântica.
Nas condições em que a matéria deve ser tratada sob a ótica da teoria quântica, cada partícula (elétron, próton, átomos, entre outras) é caracterizada por um conjunto de propriedades, intrínsecas (spin) ou circunstanciais (por exemplo, posição, velocidade e interação com outras partículas). Tais propriedades determinam o que se denomina de estado ou nível quântico, geralmente representado em termos de energia.
Quando duas dessas partículas interagem (não interessa aqui a que tipo de interação nos referimos), os dois estados quânticos se misturam, resultando em um novo estado composto pelas duas partículas (vamos supor o caso simples de apenas duas partículas). Tecnicamente se diz que houve uma superposição dos estados das partículas individuais.

Quando duas partículas estão emaranhadas, elas perdem suas características individuais e passam a funcionar como um único sistema. Se não houver ruído, a interação continua mesmo quando estão separadas por longas distâncias. (imagem: Miroslav Kostic/ Sxc.hu; montagem: Sofia Mountinho)

Enzimas em materiais fotossintetizantes teriam passado por um processo evolutivo para fazer uso eficiente da energia solar por meio de processos quânticos 

Esse estado composto, ou emaranhado, é tal que as informações individuais das partículas são perdidas. O emaranhado quântico representa o conjunto e reflete apenas as correlações entre os seus componentes. O que diz a teoria quântica é que essa correlação continua mesmo depois que as partículas são separadas. Uma tese bem conhecida e controvertida é de que a correlação é preservada mesmo que a separação seja infinita.
A propriedade necessária, mas não suficiente para a existência do emaranhado, é essa correlação quântica. O problema é que a correlação ou coerência quântica é muito instável, depende fortemente da temperatura e do meio ambiente, que geralmente funciona como um sistema ruidoso.
De modo um tanto ingênuo, podemos dizer que o aumento de temperatura ou do nível de ruído provoca a perda do estado de coerência quântica, fazendo desaparecer o emaranhado. Essa grande sensibilidade tem sido a principal barreira para o aproveitamento tecnológico do emaranhado quântico.
Emaranhamento na fotossíntese
Compreender a razão da grande eficiência da conversão da energia solar em energia química no processo da fotossíntese tem sido um desafio permanente enfrentado por pesquisadores de diferentes áreas do conhecimento (Leia a coluna O big bang da evolução).
Há menos de uma década, medidas óticas ultrarrápidas realizadas por pesquisadores do Instituto Max Planck, na Alemanha, e da Universidade de Leiden, na Holanda, liderados por V. I. Prokhorenko, evidenciaram a existência de coerência quântica na fotossíntese, motivando uma série de experimentos com diversos materiais biológicos e especulações sobre a existência de emaranhado quântico em circunstâncias até então consideradas improváveis – por exemplo, em temperatura ambiente, que é considerada muito alta, e em um ambiente claramente ruidoso. 
Enzimas em materiais fotossintetizantes teriam passado por um processo evolutivo para fazer uso eficiente da energia solar por meio de processos quânticos
O debate ficou mais acirrado quando uma hipótese ainda mais controvertida foi levantada por alguns pesquisadores, entre os quais a química Judith Klinman, da Universidade da Califórnia, em Berkeley, Estados Unidos, e uma das pioneiras no estudo de tunelamento quântico em proteínas: as enzimas nesses materiais fotossintetizantes teriam passado por um processo evolutivo para fazer uso eficiente da energia solar por meio de processos quânticos.
Os opositores da hipótese, como o químico Gregory Scholes, da Universidade de Toronto, Canadá, afirmam que os mecanismos quânticos não passam de um acidente no modo como essas moléculas atuam. Ou seja, os organismos escolheriam rotas diferentes por acaso e não porque essa ou aquela são mais eficientes. Na verdade, Scholes afirma que não há dados experimentais suficientes sequer para se levantar a questão.
Coerência prolongada
Outro mistério biológico que parece começar a ser desvendado com o uso da teoria quântica é a influência do campo magnético no processo de orientação e navegação de aproximadamente 50 espécies animais, como das formigas, raposas, gado e pombos-correios.

O objeto aqui é bem diferente dos materiais fotossintetizantes, mas por trás do processo há algo em comum, que é a separação de cargas induzida pela absorção da luz solar na retina dos animais. Essa absorção resulta na liberação de um par de elétrons.

Como os elétrons estão em ambientes ligeiramente diferentes, eles têm seus spins orientados diferentemente. Esses estados de orientação dependem da inclinação das moléculas na retina em relação ao campo magnético terrestre. Portanto, o processo de fotoionização resulta em um par de elétrons com spins correlacionados.

O campo magnético da Terra, que protege a superfície do planeta das partículas carregadas do vento solar, influencia a orientação de várias espécies de animais. A causa ainda é um mistério, que começa a ser desvendado pela mecânica quântica. (foto: Nasa)

Fenômenos genuinamente quânticos desempenham papel preponderante em alguns processos biológicos

Estudos teóricos recentes, realizados por pesquisadores da Universidade de Oxford e da Universidade Nacional de Singapura, liderados por Simon Benjamin, têm mostrado que esse estado de correlação ou coerência quântica tem se mantido por intervalos de tempo da ordem de centenas de microssegundos, algo inimaginável. Estimativas teóricas até o momento não passavam da ordem de um microssegundo.

Qualquer que seja o resultado do debate em torno do processo evolutivo das enzimas dos materiais fotossintetizantes e da orientação magnética de animais, o fato importante que aparentemente todos concordam é que fenômenos genuinamente quânticos desempenham papel preponderante em alguns processos biológicos. 

Há quem acredite que a computação quântica poderá avançar a partir de uma compreensão mais profunda do processo de transmissão de energia na fotossíntese e do mecanismo de proteção utilizado pelos pássaros para aumentar o tempo de coerência quântica.

Aprender com a natureza é um desejo e uma busca do homem desde tempos imemoriais. Mas agora essa espécie de simbiose quântico-biológica parece atingir um estágio antes inimaginado.

Inteligência Híbrida


Inteligência Híbrida

Palavras-Chave: Inteligência Artificial. Mentes e Máquinas. Ciências Cognitivas, Inteligência Híbrida.

João de Fernandes Teixeira

André Sathler Guimarães

Inteligência Híbrida: parcerias cognitivas entre mentes e máquinas

Resumo: O artigo apresenta uma revisão histórica e conceitual da pesquisa em Inteligência Artificial, realçando suas possibilidades e limites. Em seguida, trabalha com o conceito dennettiano de extrusões mentais como forma de demonstrar que as novas tecnologias de informação e comunicação cumprem o papel de auxílios externos que se incorporam aos processos cognitivos humanos, alterando-os. Propõe o conceito de Inteligência Híbrida, como resultado de parcerias cognitivas entre mentes e máquinas e possibilidade de superação das dificuldades encontradas pela pesquisa em Inteligência Artificial.

Hybrid Intelligence: cognitive partnerships between minds and machines

Abstract: The paper presents a historical and conceptual revision of the Artificial Intelligence research program by emphasizing its possibilities and constraints. Taking as a starting point the Dennettian concept of mind extrusion, the paper shows the extent to which new information and communication technologies accomplish the role of external boundaries to human cognitive processes. Finally, we propose the concept of Hybrid Intelligence, as resulting from cognitive partnerships between minds and machines and as a way to overcome the difficulties of  the Artificial Intelligence research field.

Keywords: Artificial Intelligence. Minds and Machines. Cognitive Sciences.

TEIXEIRA , João de Fernandes; GUIMARÃES, André Sathler. Inteligência Híbrida: parcerias cognitivas entre mentes e máquinas.

1. Introdução

Uma das inquietações metafísicas do ser humano sempre foi sentir-se sozinho no universo. A dúvida quanto a sermos ou não os únicos seres a dispor de pensamento consciente nos acompanha há milênios e a própria criação de deuses, aos quais é atribuída uma consciência, é uma tentativa de encontrar companheiros de pensamento. Atribuir consciência e buscá-la nos animais, esses parceiros com os quais dividimos o planeta terra também foi uma estratégia para tentar superar essa solidão milenar. Outra linha, também antiga, foi a tentativa de encontrar consciência em autômatos, seres artificialmente construídos pelo próprio homem. Mais recentemente, essa perspectiva consubstanciou-se e virou uma linha de pesquisa, a Inteligência Artificial (IA), graças ao desenvolvimento dos computadores digitais. Com pouco mais de meio século de desenvolvimento a IA ainda patina em suas definições conceituais, porém já demonstrou um pouco de suas potencialidades e de seus limites. O presente artigo apresenta uma revisão histórica e conceitual da pesquisa em Inteligência Artificial, realçando suas possibilidades e limites. Em seguida, trabalha com o conceito dennettiano de extrusões mentais como forma de demonstrar que as novas tecnologias de informação e comunicação cumprem o papel de auxílios externos que se incorporam aos processos cognitivos humanos e os alteram. A partir desse conceito do filósofo Daniel Dennett, propõe o conceito de Inteligência Híbrida (IH), como resultado de parcerias cognitivas entre mentes e máquinas e possibilidade de superação das dificuldades encontradas pela pesquisa em Inteligência Artificial. Finalmente, o artigo traz  uma reflexão quanto a novas questões éticas que surgem com os avanços da pesquisa em IA e com o próprio surgimento desse novo tipo de inteligência, a IH.

2. Inteligência Artificial: possibilidades e limites

A pretensão de simular a inteligência humana é antiga e suas origens não são possíveis de serem rastreadas na história. Há indícios de preocupação com autômatos já no pensamento grego. Porém, a IA como um campo de pesquisa delineou-se a partir do final da década de 1950, quando também surgiam e estavam em franco desenvolvimento os primeiros computadores digitais. Por suas peculiaridades, os computadores digitais, como máquinas de finalidades gerais, baseados na Máquina de Turing, representavam, pela primeira vez, a possibilidade real de materialização da inteligência humana em outro tipo de mídia que não um típico cérebro humano.

2.1 - GOFAI

Em seu início, a IA mesclava a abordagem da então incipiente ciência cognitiva com a ciência da computação e tinha como propósito a criação de modelos computacionais para a compreensão da cognição humana. Nas duas décadas iniciais de seu desenvolvimento, a IA assumiu como projeto a construção de softwares que teriam a capacidade de igualar o comportamento humano inteligente. Posteriormente, essa linha inicial de pesquisa em IA veio a ser chamada de Good Old-fashioned Artificial Intelligence GOFAI1. Em seu fundamento filosófico, a GOFAI assumiu um controverso posicionamento entre o cartesianismo dualista e o materialismo monista, que FLORIDI (1999) chamou de materialismo computacional. Para FLORIDI (1999, p. 133), essa posição estabelece que a inteligência é “biologicamente independente do corpo e a-social, mas também completamente independente da mente e, portanto, implementável por um (sem cérebro, sem mente e sem vida) sistema lógico-simbólico de finalidades gerais”. Enquanto considerada como algo independente do corpo e essencialmente individual, a concepção de inteligência mantém uma perspectiva dualista, fortemente criticada pelas posições mais recentes das ciências cognitivas. Como independente da mente e passível de ser implementada em outros dispositivos, que alcancem os mesmos resultados, por meio de processos inteiramente diversos, a inteligência é compreendida de forma materialista. A combinação das duas perspectivas, originariamente almejada pelo chamado materialismo computacional, revela-se uma impossibilidade tanto teórica quanto prática. Sustentar o materialismo computacional, portanto, significava aceitar uma vertente funcionalista combinada a um reducionismo, que iguala a inteligência à computação. Essa redução se torna possível mediante a igualdade primeira entre inteligência e raciocínio, e entre o raciocínio e o processamento de símbolos, em um segundo momento. Uma das grandes dificuldades dos pesquisadores da GOFAI foi deixar de entender que inteligência = raciocínio = processamento de símbolos = computação era um reducionismo e não uma equação a ser entendida literalmente. TEIXEIRA (2005, p. 35) corrobora essa visão, ao argumentar que “por trás da GOFAI está o paradigma simbólico, ou seja, a noção de que a mente é um sistema formal que manipula símbolos (representações) através de programas computacionais que resolvem problemas”. Apesar dessas dificuldades conceituais, a GOFAI foi aplicada com êxito em diversas áreas, como demonstração e prova de teoremas, jogos, planejamento comportamental de robôs por meio de análises de meios e fins, sistemas especialistas, percepção acústica e visual e reconhecimento de padrões. Todas essas áreas apresentam alguns pontos em comum: são computáveis, independentes em relação à experiência, ao corpo e ao contexto. Esses pontos em comum não são devidos ao acaso, mas decorrem do fato de que um computador é capaz de realizar tarefas inteligentes desde que seja capaz de internalizar todos os dados relevantes. Por essa razão, as aplicações da GOFAI são limitadas à domínios muito restritos, a partir dos quais os programadores criam micromundos. Esses, por sua vez, representam uma combinação “dos compromissos ontológicos que os programadores assumem quando concebem o sistema e que desejam que o sistema adote” (FLORIDI, 1999, p. 146). Essa forte restrição de domínio leva a GOFAI a um paradoxo: quanto mais restrito o domínio e, portanto, passível de formalização, mais viável o desenvolvimento de aplicações, porém, menos inteligentes parecerão as mesmas. 2 Ou seja, na verdade não há uma “inteligentificação”  das máquinas, mas sim uma “estupidificação” da inteligência. Uma não-restrição do domínio, contudo, leva a problemas insuperáveis para a IA, tais como a explosão combinatorial e a rigidez de estrutura (cf. TEIXEIRA, 2004, p. 40).

2..2 – LAI

Com o tempo, surgiu uma nova abordagem no campo de pesquisa, que veio a ser conhecida como Light Artificial Intelligence – LAI. Ao invés de se propor a construir hardwares e softwares para igualar a inteligência, a LAI busca se orientar para a consecução das tarefas e a resolução dos problemas. Assim, a pesquisa em IA tenta se desvencilhar dos resquícios do dualismo cartesiano, por meio de uma abordagem mais estritamente uncionalista, a qual TEIXEIRA, João de Fernandes; GUIMARÃES, André Sathler abrange a compreensão de que diferentes tarefas podem ser realizadas de modos muito distintos. No nascedouro da LAI estava a concepção de que “tarefas inteligentes poderiam ser realizadas por dispositivos que não teriam a mesma arquitetura nem a mesma composição biológica e físico-química do cérebro humano” (TEIXEIRA, 2004, p. 60). A questão essencial, então, passa a ser se existe uma forma computacional de resolver uma determinada tarefa. Ao invés de “estupidificar” a inteligência, trata-se de “estupidificar” o processo pelo meio do qual se resolve o problema. A nova abordagem representou um grande avanço, permitindo o desenvolvimento de aplicações de IA ainda mais bem sucedidas e em  uma variedade maior de problemas. No entanto, para alcançarem sucesso, as aplicações de IA continuaram dependendo de lidar com problemas claramente definidos, tarefas que sejam redutíveis a seqüências de procedimentos heurísticos com propósitos específicos e instruções repetitivas. Para FLORIDI (1999), isso se deve à própria natureza dos computadores, que operam basicamente por meio de sua capacidade de detectar e processar uma relação diferencial, usualmente binária, e proceder inferencialmente a partir dessa base. Segundo FLORIDI (1999), “nós precisamos não esquecer que apenas sob condições especialmente determinadas uma coleção de relações diferenciais detectadas, concernentes a algum aspecto empírico da realidade, pode substituir o conhecimento experiencial direto desse” (FLORIDI, 1999, p. 215). Nem toda situação experiencial – nem todo conhecimento gerado pelas mesmas – são passíveis de serem traduzidas em relações diferenciais binárias, que são as ordinariamente empregadas pelos computadores digitais em seus processos inferenciais. A questão essencial e relevante, conforme CHURCHLAND (2004, p. 171) torna-se, então, “se as atividades que constituem a inteligência consciente são, todas elas, algum tipo de procedimento computacional”. Existe um limite na computabilidade, relacionado diretamente à possibilidade de desenvolvimento de um algoritmo para a resolução dos problemas, uma vez que há problemas que não podem ser homogeneizados por estados definidos e, por conseguinte, não são tratáveis algoritmicamente. Para TEIXEIRA (2004, p. 64), “estamos a anos-luz de distância de replicar a inteligência, seja em computadores, seja em robôs. Os problemas a serem enfrentados ainda são gigantescos e, em sua grande maioria, mais conceituais do que propriamente técnicos”.

3 - Processamento Mental Distribuído: raízes das parcerias entre mentes e máquinas

O cérebro humano não é substancialmente maior do que o de alguns de seus antepassados na cadeia evolutiva. Essa evidência leva à conclusão de que o tamanho do órgão principal do sistema nervoso não pode representar, por si só, a razão da diferença entre o nível das capacidades cognitivas do Homo sapiens.LAND (2001, p. 16) afirma que a fonte de nossa diferenciação em termos cognitivos deveria ser procurada em nosso “hábito de espargir (off-loading) o máximo possível de nossas tarefas cognitivas no nosso ambiente, fazendo literalmente uma espécie de extrusão de nossas mentes no mundo”. Essa prática ajudou, ao longo do processo evolutivo, o ser humano a superar seu limitado repertório de habilidades perceptivas e comportamentais no enfrentamento de um ambiente complexo. Nos primórdios da evolução, essa extrusão mental se dava tão somente pela aplicação de marcas no mundo, com o objetivo de ajudar no sentido de orientação espacial. Para DENNETT (1996, p. 137), “estas simples marcas deliberadas no mundo são os mais primitivos precursores do escrever, uma etapa em direção à criação no mundo externo de sistemas periféricos dedicados à estocagem de informação”. Inicialmente, a utilização dessas marcas pelos seres humanos deve ter ocorrido sem nenhum tipo de pensamento reflexivo e sua continuidade levou a que esse uso fosse incorporado como parte de nossos processos cognitivos. Para LAND (2001, p. 1999), isto quer dizer que podemos ter nos tornado inteligentes pela complexificação de talentos e de habilidades inatas de notar, propor e usar marcos e marcas de checagem, utilizando uma racionalidade inicialmente irrefletida – livremente flutuante – para depois de eras de benefícios crescentes nos aproximarmos reflexivamente dela. A tática de apropriação do ambiente externo aos processos cognitivos aumenta as habilidades do ser humano. Uma vez absorvidos, os recursos exteriores amalgamam-se à natureza do humano, em uma relação de mútua influência. Um instrumento requer inteligência para ser reconhecido e mantido como tal, porém o instrumento também confere inteligência ao seu possuidor. Com o tempo, a mente humana deixou de estar limitada ao cérebro e passou a incluir esses auxílios externos, a tal ponto que se esses fossem removidos ficaríamos severamente prejudicados3. Conforme DENNETT (1996, p. viii), “nossas mentes são fábricas complexas, tecidas a partir de muitos fios diferentes e incorporando muitos designs. Alguns desses elementos são tão velhos quanto a própria vida, e outros são tão novos quanto as novas tecnologias”. A obra em que DENNETT expõe sua concepção de extrusões do mental – Kinds of Minds – data de 1996 e está em harmonia com as proposições do autor em suas obras anteriores, particularmente Consciousness Explained, de 1991. Nesta, DENNETT apresentou seu modelo de consciência de múltiplas camadas. Na perspectiva desse modelo, todas as formas de atividade mental, inclusive o pensamento, “são realizadas no cérebro por processos paralelos e multi-roteados de interpretação e elaboração das entradas sensoriais” (1991, p. 111). A experiência consciente resulta desses múltiplos processos de interpretação, no que DENNETT chama de um processo editorial. A combinação ordenada dessa coleção de circuitos cerebrais especialistas conspira para criar a máquina virtual que é a mente humana. Ainda em 1991, no livro Consciousness Explained, DENNETT indicava a importância dos hábitos inculcados pela cultura e outros auxílios externos, no mesmo nível de importância dos processos individuais de autoconsciência (cf. DENNETT, 1991, p. 228). EmKinds of Minds, DENNETT amplia essa idéia e dá ênfase aos auxílios externos, tratando os como extrusões. Podemos entender que os instrumentos e as novas tecnologias são candidatas perfeitas a esse papel – atuam como uma das camadas entre as múltiplas camadas do modelo de consciência dennettiano. O processamento mental seria, então, distribuído entre processos internos e auxílios externos das mais distintas naturezas.

4 - Inteligência Híbrida: parcerias cognitivas entre mentes e máquinas

Parafraseando Wittgenstein, mesmo se um dia os computadores vierem a pensar, nós não seremos capazes de compreender os seus pensamentos. Por trás dessa paráfrase está a noção de que computadores e cérebros são instanciações materiais radicalmente diferentes (inorgânico / orgânico) e, portanto, sempre haverá uma diferença qualitativa nas formas de movimento da matéria que ocorrem em um e no outro. Assumindo essa impossibilidade de TEIXEIRA , João de Fernandes; GUIMARÃES, André Sathler replicação perfeita da inteligência humana4, há um campo ainda muito vasto a ser explorado no tocante às possibilidades de parcerias cognitivas entre seres humanos e computadores, que propomos chamar de Inteligência Híbrida – IH. Os computadores, particularmente as aplicações de IA, podem fazer prontamente e bem feitas muitas coisas que são impossíveis ou difíceis para os seres humanos. A recíproca é verdadeira. Segundo CHURCHLAND (2004, p. 193), existem certos tipos de tarefas, como as operações com números, a demonstração de teoremas e a busca em listas, que os computadores-padrão executam muito bem e com muita rapidez, enquanto o cérebro humano só as realiza muito lentamente e de modo relativamente precário. Entretanto, existem certos tipos de tarefas, como o reconhecimento de rostos, a apreensão de cenas, a coordenação sensório-motora e o aprendizado, que os seres humanos e outros animais fazem bem e rapidamente, mas que mesmo os mais rápidos computadores rodando os programas mais sofisticados só executam de forma lenta e bastante precária. A proposta da IH é permitir que as ferramentas tecnológicas desempenhem os papéis para os quais são mais adequadas, ao invés da tentativa, muitas vezes buscada nas pesquisas da IA, de forçá-las a replicar (precariamente) as formas humanas de ação e experiência. A abordagem da IH também é útil porque nós não temos que esperar até que todos os processos mentais humanos sejam inteiramente decifrados e algoritmizados (se é que isso é possível) ou até que os computadores se tornem inteligentes, para desenvolver pesquisas sobre as possibilidades dessa parceria cognitiva entre mentes e máquinas. Os vários tipos de parabiose5 entre homens e máquinas expandem e alteram a forma dos processos psicológicos que nos fazem ser o que somos. O desenvolvimento dos computadores digitais agregou ao ser humano meios novos e extremamente avançados para a manipulação externa de símbolos. A IH, pensada como uma resultante de uma combinação dos recursos orgânicos e inorgânicos das mentes e máquinas, significa uma mudança de natureza da inteligência e não somente a sua ampliação. Para LICKLIDER (1960, p. 2), a IH “vai pensar como nenhum cérebro humano jamais pensou e processar dados de uma forma não realizada por nenhuma das máquinas processadoras de informação que conhecemos hoje”6. O ser humano beneficiário desse processo não é simplesmente mais inteligente, mas sim capaz de apresentar mais formas de comportamento inteligente do que seria o caso em suas condições naturais. Somos produtos de “uma complexa e heterogênea matriz de desenvolvimento na qual cultura, tecnologia e biologia estão inextricavelmente misturados” (CLARK, 2003, p. 86). Nossos cérebros e mentes participam em algumas interações recursivas com o ecossistema cognitivo no qual estão imersos, transformando-se ao longo do processo. Nosso senso de nós mesmos é incrivelmente plástico, transcendendo quaisquer concepções rígidas e determinísticas quanto às fronteiras da individualidade, de forma a abranger a rede de tecnologia e dispositivos cognitivos que por acaso habitamos, conforme argumentado na teoria das extrusões mentais de DENNETT. Estamos plasmados em um cotidiano de novas tecnologias, que imprimem suas feições e espectros de utilidade em nossos complexos cérebro-mente, passando a fazer parte de nós mesmos. Se nos hominimizamos em grande parte devido à nossa habilidade para lidar com instrumentos, agora discutimos em que medida as tecnologias nos transformam em algo radicalmente diferente (o pós-humano) ou simplesmente liberam mais potencial para sermos cada vez mais nós mesmos (o hiper-humano). Para CLARK (2003, p. 31), nossa relação com nossos instrumentos tecnológicos se tornará tão íntima que “você finalmente se dará conta de ‘usar’ os agentes artificiais apenas da mesma forma atenuada, e mesmo paradoxal, de que você se dá conta de estar ‘usando’ seu córtex parietal posterior”. Os computadores digitais tornaram possíveis parcerias inéditas com os seres humanos, indo além de meramente configurar, formatar ou enquadrar conjuntos complexos de informação, participando ativamente do processo que transforma dados em informação e informação em conhecimento. O que está mudando é que o homem tem deixado de ser o único protagonista ativo no processo de aprendizagem e apreensão dos dados, com sua conseqüente transformação em conhecimento, uma vez que as máquinas podem exercer funções autônomas e parcialmente ativas Os computadores podem reunir grandes quantidades de dados e convertê-los em comparações, listagens, gráficos, auxiliando grandemente na tarefa de atribuir significado. Os sistemas de busca na Internet são um exemplo. Consultar um índice sobre determinado assunto, em papel, é uma relação cognitiva tipicamente processada pelo agente orgânico, o homem, auxiliado pelo instrumental do papel, que neste caso funciona como suporte para a informação. Toda apropriação da informação, sua transformação em conhecimento é feita pelo homem. Ao lançar uma palavra chave em um sistema de busca na Internet, o homem “delega” à máquina a tarefa de verificação da ocorrência do termo em questão nos rincões da rede. A digitação das palavras “Inteligência Artificial” no sistema de busca Google, por exemplo, gerou 3.650.000 resultados em 0,10 segundos7. Nenhum ser humano jamais terá a capacidade de gerar essa impressionante gama de resultados, oriundos da varredura que o agente de software fez em um vastíssimo banco de dados de páginas da Web. É fato que essa busca ainda é estritamente sintática e imperfeita, uma vez que baseada fundamentalmente em comparações exatas ou semiexatas, em termos ortográficos. Mas o desenvolvimento da linguagem XML e as novas perspectivas em termos de pesquisas semânticas na World Wide Web sinalizam para evoluções rápidas nesse campo. O grande desafio para o futuro é integrar os desenvolvimentos das novas tecnologias de informação e comunicação ao modo de vida dos usuários e, principalmente, propiciar sua interação com o agente orgânico. RAMALHO (2001) afirmou que tato e visão já não serão suficientes para absorver a quantidade de informações disponíveis e continuamente geradas, e os computadores pessoais deverão se tornar cada vez mais ativos na interação com o ser humano, agindo como uma extensão de suas faculdades naturais. Microfone no broche, alto-falante no brinco, câmara nos óculos e pulseira com entrada de texto e tela, todos se comunicando sem fio, são algumas das aspirações atualmente por fabricantes da indústria de informática. Já no projeto Oxigen, coordenado pelo Laboratório de Ciência da Computação e Inteligência Artificial do Massachussets Institute of Technology MIT, com a parceria da Philips, HP, Delta Eletronics, NTT e Nokia, pretende se preparar para um ambiente em que a computação esteja tão espalhada como o ar que se respira. Por premissa, imagina-se uma computação onipresente, embutida, nômade e eterna, este último atributo relacionado à capacidade de nunca travar, desligar ou reiniciar. Dispositivos móveis e fixos serão conectados dinamicamente em redes, que entenderão múltiplos protocolos de comunicação. Nesse ambiente, a fala e a visão serão os principais meios de interação dos usuários com as tecnologias. As tecnologias, antes restritas às áreas de microeletrônica, estão agora se propagando a todos os demais setores industriais, possibilitando a construção de microdispositivos mecânicos, fotônicos, microfotônicos, entre outros. Calcula-se que haverá um número cada vez maior de chips inseridos nos mais diferentes produtos (a implementação de um chip que torna um objeto inteligente -embedded chips), todos eles interligados na Internet. Na verdade, o servidor portátil poderá estar inserido, literalmente, nas vestimentas das pessoas, ou ainda “dentro” das pessoas, segundo algumas pesquisas mais avançadas de implantes eletrônicos. Experimentos atuais já trabalham com a implantação de chips em cérebros de pessoas com mal de Parkinson, com o objetivo de se intrometer no processamento cerebral e corrigir a disfunção que causa a doença. O fato é que agentes inorgânicos, como microcomputadores, já são capazes de realizar uma série de atividades que prolongam e ampliam as competências e capacidades cerebrais dos seres humanos. Merecem atenção nesse ponto os sistemas digitais de armazenamento, que, segundo ASSMANN (2000), “podem ser considerados como uma espécie de prótese externa do agente cognitivo humano”. Valendo-se desses novos recursos artificiais de armazenamento, o ser humano poderá deslocar suas capacidades orgânicas de memória para outras finalidades. Segundo HUGHES (2001), “o desenvolvimento de dispositivos de informática que empregam materiais biológicos e de programas de software desenvolvidos sobre modelos biológicos sugere futuras convergências entre computação orgânica, software de redes neurais e interfaces entre o sistema nervoso humano e o computador.” A crescente integração entre cérebros e máquinas pode alterar fundamentalmente o modo como o ser humano nasce, vive, aprende, trabalha, produz, consome, sonha e morre. Avanços nessa área vão passar pela concepção de neurônios artificiais, chips orgânicos e até mesmo comunicação telepática (ou telemática) entre homens e máquinas. Redes, como a Internet, de características hipertextuais, propiciam o ecossistema cognitivo no qual o aprendente pode se inserir, interagir, construir, enfim, assumir a gestão de seus processos de aprendizagem. A localização de determinado dado já não importa mais (se interna ou externa ao organismo). O que vai importar é a capacidade de recuperação e uso imediato desse dado, quando necessário. Para LAND (2001, p. 202), “muito em breve estaremos totalmente interligados através de uma rede mundial de computadores, em um dos mais fantásticos movimentos de extrusão de nossas mentes de que já se teve notícia na história dos homens”. Esse ecossistema, que abrange tanto elementos orgânicos como inorgânicos, pode vir a representar a concretização dos ideais construtivistas, embora ainda se esteja tateando quanto ao uso pedagógico de tecnologias que permitem passear por dentro do corpo humano, tocar objetos inexistentes, explorar planetas distantes, em ambientes colaborativos e interativos. Um exemplo desse tipo de ambiente é a cave (caverna), comprada pela Universidade de São Paulo recentemente, desenvolvida no Laboratório de Visualização Eletrônica da Universidade de Illinois, nos Estados Unidos. Um cubo com 3 m3 e projeções em todas as paredes, que permite a criação de realidade virtual, a manipulação do ambiente por meio de joysticks e óculos semitransparentes, dão ao usuário a capacidade de enxergar simultaneamente o ambiente físico e o virtual. Até seis pessoas podem compartilhar o uso simultâneo da cave e uma cave pode ser interconectada a outra, não importa onde esteja. Seu custo ainda é inacessível para a maioria das escolas, mas a previsão de seus próprios criadores é que esse valor seja drasticamente reduzido, em um intervalo curto de tempo, o que pode fazer com que esta ferramenta esteja disponível para as escolas em breve. A questão, então, passa a ser a capacidade dos professores para encontrar aplicações para essa tecnologia em seus cursos e metodologias de ensino. Outra questão é a localização da tecnologia na escola. Predomina ainda o modelo dos laboratórios de informática, que são como “ilhas” disputadas a tapa por disciplinas “práticas” e vedadas às disciplinas que amargam o rótulo de “teóricas”. Esse modelo associa-se à gestão centralizada de recursos audiovisuais pelos famigerados setores de multimeios e similares. O aparato tecnológico precisa estar cada vez mais inserido na sala de aula, permitindo ao professor criar situações novas e que despertem a curiosidade do aluno. O computador na escola não pode ficar ilhado, precisa estar integrado a todas as atividades, uma vez que a tecnologia não se torna significativa para a vida dos aprendentes quando eles têm acesso a ela por apenas alguns minutos por semana. O novo ecossistema deve abranger conteúdo dinâmico e estimulante, suportado por próteses tecnológicas que facilitem e ampliem a capacidade dos aprendentes de coletar, analisar, apresentar e comunicar informações. É nessa perspectiva que a introdução de novas tecnologias está em consonância com o pensamento educacional construtivista, que considera o processo de diálogo entre sujeito aprendente e objeto aprendido como fundamental na construção do conhecimento. Quando se pensa nos novos ecossistemas cognitivos, povoados por dispositivos informáticos digitais, não se pensa no treinamento de cérebros cujo potencial básico já está determinado, antes procura-se providenciar ambientes mais ricos, nos quais uma melhor nutrição gere cérebros melhores. A natureza da interação entre agentes orgânicos e inorgânicos será cada vez mais íntima, evoluindo do uso instrumental dos agentes artificiais para parabioses entre aprendentes humanos e máquinas aprendentes. Essas mudanças devem conduzir a uma reformulação radical dos currículos, inclusive no tocante à estrutura formal atual que divide os estudantes por faixas etárias. Currículos lineares tornam-se obsoletos e serão substituídos por currículos dinâmicos, com os estudantes assumindo cada vez mais o papel de protagonistas de seu aprendizado, determinando o que precisam aprender, quando e com que intensidade. Isso, porém deve estar associado ao cumprimento de objetivos padronizados para as múltiplas áreas, de modo a se garantir que os estudantes vão ser bem-sucedidos em suas futuras profissões.

5 - IH e as competências para lidar com o novo ecossistema cognitivo

Se a linguagem que usamos limita nosso mundo, a tecnologia de que dispomos também.8 O mundo atual apresenta uma grande e crescente intensificação dos estímulos nervosos, como um resultado da alteração brusca e ininterrupta entre estímulos exteriores e interiores. As novas tecnologias de informação e comunicação têm gerado um padrão de descontinuidade aguda, contida na necessidade de apreensão com uma única vista de olhos e no inesperado de impressões súbitas. O ambiente penetrantemente tecnológico da atualidade contrasta profundamente com o ambiente anterior, no que diz respeito aos fundamentos sensoriais da experiência humana, extraindo do ser humano uma qualidade de consciência diferente. Essa consciência precisa estar apta a lidar com um novo tipo de ambiente (ecossistema cognitivo), em que predomina a percepção da simultaneidade, da fragmentação e do descontínuo. A parceria entre mentes e máquinas, consubstanciada na IH, torna-se fundamental para uma vida com qualidade nos novos contextos cognitivos, conforme apresentado acima. Aqueles que não conseguirem alcançar esse nível de imbricamento com os máquinas, em parcerias cognitivas inéditas, serão os novos tipos de analfabetos do futuro. ASSMANN (1998) desenvolve os conceitos de três tipos de analfabetismo: o da lectoescritura, compreendendo a ncapacidade de ler e escrever, o sóciocultural, representando a capacidade de viver em dada sociedade, e o tecnológico, ou seja, a inabilidade para interagir com máquinas complexas. É importante destacar a visão ampliada de ASSMANN (1998) sobre a alfabetização: “alfabetizar-se implica que a pessoa possa vivenciar aquelas experiências cognitivas que a habilitem para ser criativa, tomar iniciativas e desfrutar das oportunidades oferecidas por contextos cognitivos característicos das sociedades de hoje” (ASSMANN, 1998, p. 22). Essa visão ampliada da alfabetização confere outros contornos à questão da exclusão digital. Não se trata somente da falta de acesso e domínio do uso de computadores, ou da Internet. Trata-se da incapacidade de lidar com os inúmeros dispositivos eletrônicos, digitais ou não, inseridos nos mais diversos processos da vivência cotidiana, nos dias atuais. Tal concepção está em consonância com o pensamento de APPLE (1997): processos como escrever, falar e ouvir não deveriam ser vistos, apenas, por sua função de acesso à ‘cultura refinada’ ou a ‘habilidades vitais’, necessárias ao desempenho nos postos que nos são designados no mercado de trabalho, remunerado ou não, mas como meios cruciais para obter poder e controle sobre nossas vidas inteiras (APPLE, 1997, p. 71). Nessa perspectiva, a pessoa com dificuldades para operar um forno de microondas ou um vídeocassete seria, em certo grau, um analfabeto tecnológico e, conseqüentemente, um excluído digital. Os “contextos cognitivos característicos das sociedades de hoje”, ou, na terminologia que propomos, novos ecossistemas cognitivos, implicam, necessariamente, familiaridade com dispositivos eletrônicos, digitais ou não. No Brasil, por exemplo, as eleições eletrônicas envolvem um mínimo de compreensão quanto ao funcionamento de uma máquina e rudimentos de leitura, que permite à pessoa selecionar os botões certos para fazer a indicação de seu candidato. Os vastos recursos gastos com a capacitação dos eleitores para votar, bem como as filas nas seções eleitorais em determinadas regiões, são demonstrativos do que aqui se está discutindo. O emprego da tecnologia digital transcendeu o uso de computadores. Na sociedade atual, passou a ter relações diretas com a vida das pessoas. Estar vivo significa participar de um contínuo desenvolvimento do conhecimento e de seu livre intercâmbio. Para aqueles que não tiverem acesso à informação e não forem capazes de processá-la criticamente, transformando-a em conhecimento, restará a condenação a repetir indefinidamente tarefas mecânicas e subalternas, não alcançando plenamente o sentido de ser humano. Embora ASSMANN (1998) tenha se referido a um analfabetismo tecnológico, entende-se que essa conceituação possa aplicar-se, identicamente, a um chamado analfabetismo digital, ou seja, a incapacidade de lidar com máquinas complexas digitais. Assumindo essa premissa, o analfabetismo digital seria um dos componentes importantes do fenômeno da exclusão digital, mas não o único, uma vez que há outros elementos envolvidos – por exemplo, a capacidade financeira de arcar com os custos da tecnologia da informação. Retomando a noção dos novos ecossistemas cognitivos, é facilmente identificável que os analfabetos digitais terão sua capacidade de aprendizado e conectividade afetados, com conseqüências graves em todos os campos de suas vidas. A associação do conceito de analfabetismo digital ao de exclusão digital também é importante, por propiciar uma sensibilização quanto ao fato de que não se trata somente de saber ou não operar um computador, mas também de compreender os impactos da tecnologia nas relações interpessoais, de trabalho e, enfim, de entender as transformações ocorridas no mundo por causa da tecnologia da informação. A penetração dos computadores e o crescente uso dos bancos de dados e dos sistemas de informação representam mudanças significativas na vida humana, em todos os seus âmbitos. POSTMAN (1992, p. 29) alega que “as novas tecnologias alteram a estrutura de nossos interesses: as coisas sobre as quais pensamos. Alteram o caráter de nossos símbolos: as coisas com que pensamos. E alteram a natureza da comunidade: a arena na qual os pensamentos se desenvolvem.” Consolida-se, portanto, uma separação entre produtores informacionais e mão-de-obra genérica, substituível, efetuando-se, assim, a exclusão de uma significativa parcela da humanidade, isto é, daquelas pessoas cuja capacitação permite exclusivamente a realização de tarefas mecânicas. Segundo WIENER [(1954)1997, p. 51), “em todos os aspectos importantes, o homem que nada tenha para vender a não ser sua força física nada tem para vender que valha a pena comprar”.

6 – Considerações finais

Durante muitos séculos, houve uma busca da replicação da inteligência humana, seja em autômatos, seja em outros animais. Com o advento da IA, essa busca ganhou novo fôlego e transformou-se em nova área de pesquisa. Contudo, a pesquisa em IA se deparou com obstáculos intransponíveis e, paradoxalmente, somente quando os pesquisadores em IA renunciaram à proposta de construir hardware e software que mimetizassem de fato a inteligência humana foi que a pesquisa conseguiu avançar. Computadores e cérebros são ontologicamente diferentes, construídos a partir de princípios completamente distintos. Cérebros são auto-aprendentes, computadores são programados; computadores executam perfeitamente suas instruções, cérebros são flexíveis e tolerantes à falhas; computadores têm um controle central, cérebro não tem qualquer tipo de controle centralizado. Essas diferenças irrenunciáveis, contudo, não impedem que computadores inteligentes venham a ser construídos. Porém, na nova perspectiva da pesquisa em IA, essas máquinas inteligentes surgirão a partir de um novo conjunto de princípios sobre a natureza da inteligência e não da tentativa de replicá-la. Provavelmente, as aplicações mais bem-sucedidas de IA surgirão em áreas nas quais a inteligência humana tem dificuldades, como áreas para as quais ossos sentidos são inadequados, ou áreas que exijam tarefas repetitivas e tediosas. Graças à plasticidade de seu sistema nervoso, os seres humanos têm facilidade em usar instrumentos e, com o tempo, incorporar o seu uso, de modo que os instrumentos passem a fazer parte de seu complexo cognitivo. Inicialmente, com instrumentos mecânicos, o objetivo maior era a ampliação da força física e do alcance espacial de seus membros. Com os computadores digitais, surgiu, pela primeira vez, um instrumento que trouxe a possibilidade de expansão das faculdades mentais.

7 – Referências bibliográficas

Da parceria entre mentes e máquinas surge um novo tipo de inteligência, a Inteligência Híbrida, que será fundamentalmente diferente da inteligência humana comum. Esta não será simplesmente ampliada, mas transformada pelas novas possibilidades cognitivas que lhe serão abertas. Como toda transformação profunda, a IH levantará um novo conjunto de questões sociais e éticas, que precisarão ser debatidas pela humanidade, a principal delas sendo as possíveis novas formas de discriminação entre aqueles que tiverem acesso aos recursos e puderem desenvolver suas IH e aqueles que não tiverem essa condição.

ASSMANN, Hugo. A metamorfose do aprender na sociedade da informação. Revista Ciência da Informação, vl. 29, n.º 2. 2000.Metáforas novas para reencantar a educação. Piracicaba, SP: Editora UNIMEP, 1996. CHURCHLAND, Paul M. Matéria e consciência – uma introdução contemporânea à filosofia da mente. São Paulo: Editora UNESP, 2004.

CLARK, Andy. Natural-born cyborgs – minds, technologies and the future of human intelligence. Oxford: Oxford University Press, 2003. DENNETT, Daniel. Consciousness explained. Nova Iorque: Little, Brown and Company, 1991. Kinds of Minds. Nova Iorque: Basic Books, 1996. FLORIDI, Luciano. Philosophy and Computing – an introduction. Londres: Routledge, 1999. HOUAISS, Antonio. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro: Editora Objetiva, 2001.

HUGHES,J.J. A criônica e o destino do individualismo. Folha de São Paulo, 4 de novembro de 2001.

LAND, Marcelo. A mente externa – a ética naturalista de Daniel Dennett. Rio de Janeiro: Garamond, 2001.

LICKLIDER, J. C. R. Man-Computer Symbiosis. IRE Transactions on Human Factors in Electronics, vol HFE-1, pp. 4-1, março de 1960. PINTO, Álvaro Vieira. O conceito de tecnologia. Rio de Janeiro: Contraponto, 2005. 2v.

RAMALHO, J.A. Os cinco sentidos do micro. Folha de São Paulo, 8 de agosto de 2001. TEIXEIRA, João de Fernandes. Filosofia da mente: neurociência, cognição e comportamento. São Carlos, SP: Claraluz, 2005.

João de Fernandes. Filosofia e ciência cognitiva. Petrópolis, RJ: Vozes, 2004. Recebido em outubro de 2006 Aceito para publicação em maio de 2007 Inteligência Híbrida: parcerias cognitivas entre mentes e máquinas INFORMÁTICA NA EDUCAÇÃO: teoria & prática Porto Alegre, v.9, n.2, jun./dez. 2006. ISSN 1516-084X

Notas

1 A sigla foi criada em 1981 pelo filósofo J. Haugeland e significa, em uma tradução literal, a “boa e velha inteligência artificial”.

2 Na verdade, uma das grandes queixas dos defensores da IA é justamente que a cada nova conquista da mesma, os antagonistas reagem dizendo que na verdade o que se conseguiu não tem a ver com inteligência propriamente dita.

3 Na obra Kinds of Minds,. Dennett faz uma interessante argumentação contra a internalização de idosos, com base no fato de que as suas casas estão repletas desses tipos de auxílios exteriores para suas mentes, o que contribui para uma vida de mais qualidade. CLARK (2003), corroborando essa perspectiva, relata experiências com idosos que sofrem do mal de Alzheimer, que tiveram mais qualidade de vida enquanto permaneceram em seus ambientes familiares e o efeito destrutivo da remoção e hospitalização dos mesmos.

4 O que, na verdade, terminaria por acabar com o campo de pesquisa da IA, pois a inteligência perfeitamente replicada deixaria, então, de ser “artificial”. Essa possibilidade levaria a considerações sobre forma de tratamento dos computadores, que de fato transcenderiam o status de objetos.

5 Usamos o conceito de parabiose (união fisiológica e anatômica, natural ou artificial, de dois organismos, cfe. HOUAISS, 2001), e não o de simbiose, em consonância com o pensamento de PINTO (2005, p.66), que argumenta que a simbiose pressupõe um papel ativo e iniciativa espontânea por parte da máquina, o que não ocorre de fato.

6 LICKLIDER não utiliza a expressão Inteligência Híbrida (até onde estamos conscientes, a expressão é uma proposição nossa). Porém, o contexto no qual faz sua afirmação é o mesmo contexto conceitual que estamos atribuindo à nossa chamada IH, quer seja, o de uma parceria cognitiva íntima e profunda entre mentes e máquinas.

7 Procedimento realizado em 12/09/2006, às 11h38, no site www.google.com.br .

8 Não entrando na discussão daqueles que consideram a própria linguagem como uma técnica. TEIXEIRA , João de Fernandes; GUIMARÃES, André Sathler

INFORMÁTICA NA EDUCAÇÃO: teoria & prática  Porto Alegre, v.9, n.2, jun./dez. 2006. ISSN 1516-084X