Inteligência artificial não é (bem) o que você pensava

Inteligência artificial não é (bem) o que você pensava

Leonardo Braga Martins

 

Nomes como Stephen Hawking e Elon Musk tem se manifestado vigorosamente sobre o risco que a inteligência artificial (IA) representa para o mundo como conhecemos. Bill Gates expressou as mesmas preocupações. Em 2015 a Universidade de Oxford publicou um relatório inédito sobre as doze maiores ameaças à humanidade e nele incluiu as IAs (PAMLIN e ARMSTRONG, 2015). Mas numa época em que há tanta fome, violência, desastres naturais, crises econômicas, aquecimento global e toda sorte de infortúnios, não soa estranho discutir a ameaça representada pelas IAs? O que pode requerer mais atenção do que os assombros do viver contemporâneo? Na tentativa de esclarecer essas questões propõe-se uma reflexão sobre a história daquilo que hoje compreendemos por IA.
A inteligência artificial que permeia o imaginário popular teve suas bases assentadas durante a Segunda Guerra Mundial, quando os esforços em torno de problemas militares catalisaram e impulsionaram o pensamento de natureza sistêmica, produzindo uma revolução nos moldes talhados por Thomas Kunt. Sistemas de controle foram concebidos para automatizar e prover desempenho superior à artilharia antiaérea, um componente que, à época, assumiu papel central nos dispositivos militares.
Considerando os efeitos devastadores da campanha aérea alemã contra a Grã-Bretanha, uma parte significativa dos esforços aliados dirigiram-se ao enfrentamento da moderna aviação militar – mais rápida, mais bem armada e capaz de voar mais alto do que na Primeira Guerra Mundial. Entre 1940 e 1945, a divisão de controle de fogo do escritório norte-americano de pesquisa e desenvolvimento na área de defesa, sob o comando do matemático Warren Weaver, fomentou dezenas de projetos envolvendo indústrias e universidades. O resultado foi um sucesso estrondoso, com uma rara e inusitada exceção: o trabalho de Norbert Wiener (RID, 2016).
Wiener capitaneou uma pesquisa que buscou, sem sucesso, prever e tratar matematicamente os padrões de voo de pilotos inimigos. Se por um lado o seu projeto não produziu soluções práticas para o controle de fogo, por outro forneceu a base para o seu livro mais importante: “Cybernetics, or Control and Communication in The Animal and The Machine” de 1948.
Logo após o lançamento, para surpresa dos editores, o livro se tornou um best-seller. Os principais jornais e revistas norte-americanos publicaram resenhas e entrevistas com Wiener, em que os sistemas de controle que permeavam o mundo moderno eram apresentados. Tal sucesso promoveu o inusitado: o talentoso cientista de carreira e genial matemático foi alçado ao status de ícone do mundo pop. Como isto se deu? Na obra de Conway e Siegelman (2006) é possível identificar dois fatores. Primeiro, o engajamento de Wiener no pós-guerra contra a proliferação de sistemas de controle a serviço da guiagem de armas cada vez mais poderosas e sofisticadas. Essa foi sua resposta pessoal ao lançamento da bomba de Hiroshima. O segundo foi o reconhecimento do próprio Wiener da impossibilidade de conter este avanço. A alternativa que ele encontrou foi labutar pela popularização da abordagem sistêmica, alertando a todos sobre os riscos e oportunidades que se abriam.
Nas décadas seguintes os seus prognósticos passaram a povoar o imaginário coletivo, promovendo a coexistência tortuosa de distintas visões de futuro. Na mais bela, as máquinas serviriam aos homens, ampliariam suas capacidades, fariam os trabalhos repetitivos, otimizariam processos e organizações e resolveriam problemas de enorme complexidade. Na mais soturna, máquinas dominariam os homens, vigiando, controlando e punindo. E seriam capazes de levar destruição a qualquer lugar da Terra.
Emergiu nesse contexto a cibernética, com a promessa de instituir-se como uma “disciplina das disciplinas” capaz de prover métodos e conceitos transversais aos diversos campos do conhecimento, proporcionando condições para um nível de cooperação até então inimaginável entre campos tão distintos quanto, por exemplo, a engenharia e a antropologia.

Movimento Cibernético e Contracultura
Antes da Segunda Guerra, nasceram e morreram algumas iniciativas que poderiam ter antecipado a ascensão do paradigma sistêmico. Segundo Bowlby (2002), Sigmund Freud, neurologista e pai fundador da psicanálise, ensaiou conceitos fundamentais da teoria de sistemas no seu livro Projeto para uma Psicologia Científica, de 1895, não publicado durante a sua vida. Freud, contudo, teria se afastado desses ensaios iniciais em favor da teoria do impulso secundário.
Na URSS, Alexander Alexandrovic Malinovsky (1873-1928), cientista e revolucionário marxista, fundou uma tradição de pensamento sistêmico que ansiava por estabelecer uma linguagem comum para explicação de todos os fenômenos experimentados pelo homem, a partir da compreensão do sistema de relações que os constituía (CAPRA e LUIGI, 2014). Divergências com a doutrina marxista resultaram na sua expulsão do partido. Ele não foi, contudo, alienado das atividades do Estado, dada a sua competência nos mais diversos ramos do conhecimento – da economia à filosofia, da medicina à poesia. Seu trabalho, que não detalharemos neste artigo, claramente antecipou a base conceitual que o movimento cibernético traria à superfície anos mais tarde, por meio de obras-síntese como a Teoria Geral de Sistemas, de Ludwig Bertallanfy (1963). A morte prematura do cientista soviético e a limitada cooperação acadêmica que pautava as relações entre os blocos capitalista e socialista fizeram dele um completo desconhecido no Ocidente. Tendo publicado uma soma impressionante de trabalhos, sem utilizar a verdadeira identidade, Alexander é mais conhecido pelo pseudônimo de Bogadnov (HUESTIS, 1996).
Desse modo, foi mesmo no pós-guerra que o campo ganhou corpo e forma, mormente a partir dos encontros científicos que, mais tarde, ficariam conhecidos como as Conferências de Macy. Realizadas entre 1944 e 1953, na cidade de Nova Iorque, os eventos reuniram voluntariamente nomes que, mais tarde, refundariam nosso mundo por meio de suas ideias e seguidores (HEYLIGHEN e JOSLYN, 2001).
As Conferências de Macy e as suas congêneres britânicas influenciaram uma geração de antropólogos, engenheiros, psicólogos, matemáticos, filósofos, designers, biólogos, neurocientistas e artistas. Lançaram as bases para os mais diversos sistemas automatizados, como as redes globais de comunicação, computadores portáteis, satélites, videogames, próteses médicas, sistemas de mísseis e sondas espaciais. Lançou novas bases para a educação e para a psicoterapia pelas mãos, respectivamente, de Jean Piaget (1896-1980) e John Bowlby (1907-1990) (LEONARD, 2010). Deu origem a uma nova tradição sociológica, marginal e desafiadora por Talcott Parsons (1902-1979) e mais tarde por George Homans (1910-1989), Walter Buckley (1922-2006) e Niklas Luhmann (1927-1998). Ampliou os horizontes da neurociência cognitiva e da inteligência artificial por Heinz Von Foester (1911-2002), Gregory Bateson (1904-1980), Humberto Maturana e Francisco Varela (1946-2001) (GLASERSFELD, 1995). Fomentou o surgimento de forças produtivas como as empresas Adobe, Pixar, Netscape, Apple e Google, assim como o desenvolvimento de escolas de planejamento e solução de problemas como o “design thinking” e o “human centered design”, filiadas às ideias de Horst Rittel (DUBBERLY e PANGARO, 2015). Por fim, concebeu, projetou e construiu a rede que materializava a sua utopia – um mundo em que as pessoas poderiam se engajar numa colaboração sem igual, mediada por sistemas computacionais avançados – a Internet.
Pelo modo como desafiavam preceitos largamente adotados e viabilizavam avanços técnicos até então inimagináveis, os cibernéticos deram parte da cor e do tom da contracultura, fomentando a ideia do mundo como uma grande rede de elementos dependentes e interconectados (FRANK, 1998; DUBBERLY e PANGARO, 2015). Assim, entre os anos 40 e 70, muitos utilizaram o olhar cibernético para formular novas abordagens para os problemas tradicionais de seus campos. Outros se destacaram nas artes, produzindo obras que se tornariam clássicos da ficção científica e referências na construção da cultura pop.
Na perspectiva construída pelas Conferências de Macy, sintetizada por Wiener (1998), os organismos vivos, assim como as máquinas, guiam-se por meio de sistemas de controle por realimentação (o mesmo que feedback), cujo estado desejado é o equilíbrio com o ambiente (CANON,1932). Esse novo olhar sobre a vida abriu inúmeras possibilidades metodológicas para as disciplinas que estudavam os seres vivos em geral ou o homem em particular. Contudo, após os primeiros anos de excitação e entusiasmo, o movimento entrou numa fase mais reflexiva, onde seus autores buscaram sedimentar o vasto inventário de descobertas e colocar em perspectiva as críticas ao movimento. Não eram poucas, afinal.
Os petardos vinham de várias direções e apontavam para algumas importantes fragilidades do discurso sistêmico quando aplicado à análise de sistemas biológicos. Algumas figuras proeminentes da ciência, encasteladas em suas abordagens disciplinares, manifestaram incredulidade diante da visão de mundo cibernética sem, necessariamente, apresentar argumentos capazes de contrariá-la. O mundo simplesmente não poderia ser daquele jeito. E isto parecia bastar aos seus pupilos mais fiéis. Outros afirmaram que a ideia de homeostase, se transportada para o campo das ciências sociais, fundamentava a ideia de conservação do status quo, “naturalizando” a existência de regimes totalitários. Outros afirmaram que, embora o discurso dos cibernéticos privilegiasse uma abordagem holística dos problemas, compartilhava com o método cartesiano uma visão mecanicista do mundo, onde não havia espaço nem explicação para fenômenos como a inovação e a criatividade (DUPUY, 2009).
Sobre esta última crítica, perspicaz e fundamentada, debruçaram-se importantes cientistas como o físico teórico Horst Rittel (1930-1990), o físico-químico Ilya Prigogyne (1917- 2003), Heinz Von Foster, Gregory Bateson e por último o biólogo e neurofisiologista Humberto Maturana e seu amigo próximo, o neurocientista Francisco Varela (GLASERSFELD, 2002). O trabalho de Maturana e Varela no desenvolvimento do que chamamos hoje de “biologia do conhecer”, também conhecida como Teoria de Santiago, revolucionou o campo dos estudos sistêmicos dando corpo teórico ao que chamamos hoje de cibernética de segunda ordem.

O Natural, O Artificial e A Inteligência
Dentro de uma perspectiva cibernética, é possível observar que a vida se organiza por meio de estruturas progressivamente mais complexas, em que sistemas formam sistemas maiores em um número impressionante de escalas – da vida intracelular aos tecidos, órgãos, sistemas, organismos e ecossistemas. Para analisar esse processo é preciso considerar três de seus aspectos essenciais – a autopoiese, a iteração e a simplicidade.
A autopoiese é definida por Maturana como o processo que a vida executa de criar a si mesma. É a sua característica central. Uma pedra não é capaz de produzir outra pedra. Nem um carro é capaz de produzir outro. Mas uma célula é capaz de produzir outras. Mosquitos, baleias e seres humanos também (MATURANA e VARELA, 2001).
A ideia de iteração ou recursividade, presente no corpo teórico do movimento desde seu início, afirma que os diversos componentes de um sistema se comunicam e o comportamento geral do todo é o produto das iterações entre suas partes, regidas por laços de realimentação positiva (a ação de um componente é estimulada por outro) ou negativa (a ação de um componente é inibida pelo outro). Na cibernética de primeira ordem, os sistemas têm componentes fixos e trocam informações entre si, sendo a informação vista como algo que existe independente do observador – é parte de um mundo objetivo.
Na cibernética de segunda ordem, os sistemas são dinâmicos em sua composição, pois novos componentes vão sendo produzidos, enquanto outros vão perecendo. Portanto, os sistemas vivos têm plasticidade e capacidade de adaptação, propriedades trazidas à discussão pela Teoria de Santiago e que permitiram à cibernética de segunda ordem acomodar explicações para fenômenos como a criatividade e aprendizagem (MARTINS, 2016). A iteração, nesse caso, é vista como uma troca de perturbações mútuas (não de informações), a fim de produzir um determinado comportamento do todo pela coordenação de esforços das partes. Nenhuma informação, portanto, existiria independente de um observador.
A simplicidade fala a respeito do modo como a vida se desenvolve em escalas progressivamente maiores ao longo da história natural. Pode parecer estranho, mas segundo Capra e Luigi (2014) esse processo não se dá por disposições complicadas, mas sim pela aplicação sucessiva de regras simples, numa escala titânica. Foi somente com o advento da matemática não linear e dos programas e computadores necessários à execução dos seus cálculos que se abriram fantásticas possibilidades de investigação das regras e dos padrões de organização da vida, desde os níveis moleculares, como o código genético, aos padrões visíveis a olho nu, como a geometria das conchas e os padrões de distribuição de folhas num galho de árvore (CAPRA e LUIGI, 2014).
Nesse processo de complexificação da vida em escalas cada vez maiores, surgiu uma notável novidade evolutiva – os circuitos de controle por realimentação bioelétrica, compostos por células especializadas. Até então as comunicações de reforço e inibição se davam apenas pela secreção e transporte de substâncias. A partir do surgimento dos neurônios e das glias na história natural, a cerca de 700 milhões de anos.1 as comunicações no interior dos organismos vivos se tornaram cada vez mais rápidas pelo aproveitamento de impulsos elétricos.
Movimentos de precisão, pensamento abstrato e cons­ciência tornaram-se possíveis pelo aumento do tamanho e da complexificação das redes interneuronais, fenômeno observável nas famílias de espécies dotadas de grandes cérebros, como os mamíferos (MARTINS, 2016). Nasce então o que convencionamos como inteligência, aqui definida, de modo operacional, pela possibilidade de realizar escolhas. Sistemas de realimentação simples não fazem escolhas. Na presença de uma determinada perturbação, o sistema reage de um determinado modo. No corpo humano o ato reflexo de retrair o braço quando a mão toca uma superfície quente é um bom exemplo.
A possibilidade de fazer escolhas nasce da possibilidade de formular diferentes linhas de ação, ponderar os custos e os benefícios e então decidir qual parece ser a melhor opção, dentro do tempo disponível para isso. Trata-se de uma habilidade amparada nos sistemas de controle antecipatório, ou feed forward (FF) que surgiram na história natural após os sistemas baseados em feed back (DAMASIO, 2011). Em oposição ao controle por realimentação, de natureza reativa, o controle por feed forward tem uma natureza proativa, provendo vantagens mais bem discutidas no artigo “Cibernética, Neurociência e Outros Impulsos” publicado na revista Insight Inteligência nº 98, em 2016.
Podemos tomar a inteligência, portanto, como uma propriedade específica de sistemas que atingiram um certo grau de complexidade. Quando consideramos o homo sapiens como o ponto privilegiado na escala de complexificação, torna-se apropriado utilizar um nome específico para aquilo que é produto da ação do homem: artificial.

Inteligência Artificial
De acordo com Bostrom (2014), a associação de indivíduos dotados de inteligência em uma unidade social produz um tipo específico de sistema, com muito mais possibilidades de ação e cognição – a superinteligência coletiva. Sob a sua perspectiva, a sociedade humana é um ecossistema de inteligências coletivas, artificiais, de diferentes tamanhos, capacidades e propósitos. Famílias, empresas, órgãos públicos, bandas de rock, orquestras, igrejas, nações e comunidades de nações são exemplos dessas entidades.
Desde o surgimento do homem moderno, a progressiva sofisticação das culturas materiais e imateriais agregou novas capacidades às superinteligências coletivas, proporcionando o aumento da velocidade e amplitude das comunicações entre seus componentes. Escrita, transporte marítimo, moeda e mais tarde as comunicações telegráficas proporcionaram a elas, em apenas alguns séculos, um salto evolucionário sem precedentes.
Portanto, para Bostrom (2014), as IAs existem muito antes da era da informação. O que a revolução da informática e da microeletrônica teria trazido de novidade seria o uso de unidades inorgânicas capazes de computar e transferir dados sem o emprego de inteligência biológica pelas superinteligências coletivas. Refiro-me naturalmente aos computadores e suas redes de comunicação e à substituição progressiva de homens, cavalos, pombos-correio e cães pastores por componentes inorgânicos.
Eles estão em toda parte, disponíveis em tamanhos e capacidades variadas, utilizados para finalidades diversas e quase sempre conectados entre si. Sem nos determos na contribuição de pioneiros, como Alan Turing e Jon Von Neumann, e nos avanços proporcionados pela indústria de defesa na Guerra Fria, é possível observar ao longo dos séculos XX e XXI que sistemas inteligentes têm assumido a regulação de funções essenciais nessa sociedade de IAs gigantes de natureza social. Sistemas microprocessados de comunicação, navegação, armazenamento de dados, geração de energia, transações financeiras, transporte e controle de armas passaram a constituir parte da estrutura vital dos setores públicos e privados.
O complexificação de sistemas em escalas cada vez maiores, dotados de capacidades computacionais progressivamente superiores, pelo aumento da velocidade, densidade, quantidade, conectividade e qualidade de seus componentes, é uma tendência claramente identificável na história natural e na história social. Assim, a despeito das divergências dentro da comunidade científica, de um modo geral não se pergunta “se” as IAs baseadas na microeletrônica são possíveis, mas “quando” e “como” elas se tornarão realidade, considerando todo o esforço devotado às pesquisas em aprendizagem de máquina e os visíveis avanços obtidos (BOSTROM, 2014; DOMINGOS, 2015).
E quando elas se tornarem realidade, grandes IAs sociais como países inteiros ou empresas multinacionais poderão ser atacadas em seus sistemas de TIC (Tecnologia da Informação e Comunicação) de um modo até então impensável. Mesmo uma única IA, dotada de estrutura lógica similar ao cérebro de um homem mediano, pode representar uma ameaça significativa, já que neurônios artificiais podem ser milhares de vezes mais velozes do que seus congêneres biológicos. Considerando todo o conhecimento estruturado disponível por meio da Internet, IAs eletrônicas podem aprender e evoluir numa velocidade brutal dentro de um ambiente tão rico. E se forem associadas em uma superinteligência coletiva, podem superar IAs sociais sem grandes esforços. Trata-se de algo tão perigoso quanto armas nucleares, requerendo portanto iniciativas de controle da sua disseminação (se é que isso seja possível).

Síntese
Grupos humanos são, portanto, sistemas sociais inteligentes com vontades e metas próprias. As IAs puramente sintéticas dispensam a necessidade de componentes humanos e animais, sendo capazes de superar largamente em desempenho as superinteligências coletivas sociais. Dessa forma podem agir suave ou agressivamente sobre os mecanismos de controle das relações humanas e sistemas informacionais, afetando profundamente o modo de vida contemporâneo.
A vulnerabilidade é enorme, considerando o alto grau de automação dos sistemas que suportam as comunicações internas das superinteligências coletivas e as comunicações entre elas. As IAs sintéticas podem “hackear” as máquinas sociais que compõem o nosso ecossistema social, destruindo unidades pequenas, como famílias ou pequenos negócios, até unidades grandes, como Estados-Nação. Stephen Hawkings, Elon Musk e Bill Gates parecem, portanto, ter justas razões para se preocuparem.
Mas, como afirma Domingos (2015), quanto mais pessoas entenderem as possibilidades e limitações do uso seguro das IAs, maiores são as chances de evitarmos as armadilhas que o avanço irrefletido pode reservar. E até lá, o estudo das superinteligências coletivas de natureza social pode nos proporcionar alternativas para resolver os problemas de hoje, considerando o fracasso do pensamento disciplinar e cartesiano na construção de um mundo de relações saudáveis e pacíficas (MARTINS, 2014).

O autor é capitão de corveta da Marinha de Guerra do Brasil e mestre em Defesa Civil pela Universidade Federal Fluminense (UFF).
bragamartins@gmail.com
BIBLIOGRAFIA

BOSTROM, Nick. Superintelligence: Paths, dangers, strategies. OUP Oxford, 2014.

BOWLBY, John. Apego: a natureza do vínculo. São Paulo: Martins Fontes, 2002.

CANNON, Walter. The Wisdom of The Body. New York: Norton, 1963.

CAPRA, Frijot; LUISI, Pier Luigi. A Visão Sistêmica da Vida: uma concepção unificada e suas implicações filosóficas políticas, sociais e econômicas. São Paulo: Cultrix, 2014.

CONWAY, Flo; SIEGELMAN, Jim. Dark Hero of the Information Age: In Search of Norbert Wiener the Father of Cybernetics. 2004.

DAMASIO, Antônio. E o cérebro criou o Homem. Tradução de Laura Teixeira Motta. São Paulo: Companhia das Letras, 2011.

DOMINGOS, Pedro. The master algorithm: How the quest for the ultimate learning machine will remake our world. Basic Books, 2015.

DUBBERLY, Hugh; PANGARO, Paul. How cybernetics connects computing, counterculture, and design. Hippie modernism: The struggle for utopia, p. 126-141, 2015.

DUPUY, Jean-Pierre. On The Origins of Cognitive Science: the mechanization of the mind. Tradução de M.B. De Bevoise. Massachusetts Institute of Tecnology, 2009.

FRANK, Thomas. The conquest of cool: Business culture, counterculture, and the rise of hip consumerism. University of Chicago Press, 1998.

GLASERSFELD, Ernst V. UNESCO Encyclopedia, Section on System Science 255 and Cybernetics,2002.Disponível em http://www. eolss.net. Acesso em 10 mar. 2016.

HEYLIGHEN, Francis; JOSLYN, Cliff. Cybernetics and second order cybernetics. Encyclopedia of physical science & technology, v. 4, p. 155-170, 2001.

HUESTIS, Douglas W. The life and death of Alexander Bogdanov, physician. Journal of medical biography, v. 4, n. 3, p. 141-147, 1996.

LEONARD, Allenna et al. GENERAL SYSTEMS BULLETIN VOLUME XXXIX, 2010. Disponível em http://www.isss.org/bulletins/2010\_GeneralSystemsBulletin.pdf Acesso em 4 de setembro de 2016.

MARTINS, L. B. Ensaio sobre o Design Social e a Construção Coletiva da Segurança. Insight Inteligência (Rio de Janeiro), v. 64, p. 30-42, 2014.

MARTINS, L. B. Neurociência, Cibernética e Outros Impulsos, Insight Inteligência (Rio de Janeiro), v. 74, p. 99-113, 2016.

MATURANA, Humberto R; VARELA, Francisco J. A Árvore do Conhecimento: as bases biológicas da cognição. Tradução de Humberto Mariotti e Lia Diskin. São Paulo: Palas Athena, 2001.

PAMLIN, Dennis; ARMSTRONG, Stuart. 12 Risks that Threaten Human Civilisation. Report for the Global Challenges Foundation, February, 2015.

RIBAS, Guilherme C. Considerações sobre a evolução filogenética do sistema nervoso, o comportamento e a emergência da consciência Considerations about the nervous system phylogenetic evolution, behavior, and the emergence of. Rev Bras Psiquiatria, v. 28, n. 4, p. 326-38, 2006.

 

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *