Gustavo Corrêa Mirapalheta é professor de IA e Analytics do Departamento de Tecnologia e Data Science de diversos programas de graduação da FGV EAESP e de MBAs da FGV Educação Executiva. Especialista em Machine Learning, Text Mining, IA Generativa e Computação Quântica.
Eduardo de Rezende Francisco, Professor de GeoAnalytics, Chefe do Departamento de Tecnologia e Data Science da FGV EAESP e fundador do GisBI, participa do desenvolvimento de plataformas de informação e de IA, com objetivos sociais, pesquisador do FGVanalytics
O título provocativo certamente remete os caros leitores a cenas de filmes de ficção científica, no melhor estilo “Exterminador do Futuro”, contexto em que um cientista renomado (normalmente americano) acorda certo dia e tem um insight que o motiva a construir um “chip” que traz “consciência” (com a definição que a licença poética quiser) para as máquinas. Elas, “sabidas”, portanto, passam a subjugar e até escravizar a raça humana. E lá se vão filmes e filmes…
Pois bem, será que veremos o surgimento de máquinas que pensam?
Em toda boa pergunta, há um truque. Esta não foge à regra. Onde está o truque neste caso? Em dois pressupostos. Primeiro, a ideia de que as máquinas só podem pensar por meio de regras fixas de lógica, chamadas algoritmos. Segundo, a noção de que o pensamento humano não estaria limitado a tais regras e, portanto, seríamos, por princípio, capazes de feitos impossíveis às máquinas. Será? Como veremos, existem boas razões para duvidar de ambas as coisas.
A história recente da humanidade fez surgir um novo personagem que está em alta: a Inteligência Artificial. Existem inúmeras definições e interpretações para esse conceito (conversa para futuros artigos), mas certamente uma que salta aos olhos, e combina com o que estamos discutindo, é a definição clássica de Stuart Russell e Peter Norvig, autores de “Artificial Intelligence: A Modern Approach”, de 1995. Para eles, IA é a área da ciência da computação que se dedica ao desenvolvimento de sistemas capazes de realizar tarefas que, quando realizadas por seres humanos, exigiriam inteligência. Isso inclui o aprendizado, o raciocínio, a percepção, a compreensão da linguagem e a tomada de decisões complexas.
Algoritmos se sofisticam fortemente nos dias de hoje. Mas, será que aprendizado, percepção e raciocínio podem ser confundidos com inteligência? O que os seres humanos têm que as máquinas talvez não tenham?
A limitação na forma de pensar das máquinas decorre de teoremas matemáticos descobertos nas décadas de 1930 e 1940 por Kurt Gödel, Alan Turing e Alonzo Church. Juntos, esses pensadores forneceram os alicerces teóricos sobre os quais se constrói a teoria da computação e a inteligência artificial. Eles ajudaram a definir o que as máquinas podem e não podem fazer, delineando assim o escopo de possibilidades e limitações dentro do campo da IA.
O que nos fascina é que nós, humanos, aparentemente conseguimos fazer isso. Será que dentro de nossos cérebros acontece algo não algorítmico que nos permite enxergar coisas impenetráveis para os computadores? E se a forma como a questão foi colocada é que é o problema?
O que Turing provou é que não existe um caminho único e puramente algorítmico para encontrar todos os algoritmos que podem existir. Mas suponha que exista uma forma simples de tentar. Uma forma disponível tanto para humanos quanto para máquinas. Não estou buscando uma maneira genérica e algorítmica de encontrar soluções. Estou apenas considerando a possibilidade de testá-las depois que forem propostas.
Ainda assim, resta o problema de encontrar essas novas propostas. Essa maneira pode ser tão simples quanto uma busca aleatória. Basta tentar diferentes pontos de partida. Aumente-os com base em algum conhecimento prévio e a partir daí melhore os resultados. Uma vez que um algoritmo é “escolhido”, ele pode ser facilmente testado, até mesmo para ver se ele eventualmente irá parar.
Quando uma rede neural é treinada para resolver certos tipos de problemas, que à primeira vista parecem não ter solução algorítmica, o que fazemos é encontrar uma possível solução e depois aprimorá-la com o passar do tempo. Tanto nós quanto as máquinas não sabemos se a solução encontrada é a melhor. Mas podemos testar as soluções candidatas e escolher aquela mais adequada ao nosso problema imediato.
Ainda assim, nossa forma de pensar tem algo de especial. Mas o quê? Em vez de tentar encontrar um procedimento genérico, podemos fazer uma busca aleatória para “escolher” novas soluções — soluções que hoje não estão no nosso conhecimento, mas que estão lá fora no espaço de busca, esperando para serem encontradas — e com a capacidade de testar soluções específicas, o que impediria uma máquina de ser criativa?
Tal busca na natureza chama-se Seleção Natural. Nos computadores: Aprendizado de Máquina. Como se pode ver, após 70 anos de era digital, acabamos por replicar nas máquinas o método que a natureza utilizou para gerar nossa inteligência.
Os resultados estão aí para quem quiser ver, em especial nos LLMs (Large Language Models), como o ChatGPT e assemelhados, que tornaram os sistemas de diálogo indistinguíveis de um ser humano. Já encontramos o método — o Aprendizado de Máquina. O processo já produz resultados equivalentes aos de uma pessoa. Desta forma, sim, as máquinas não só podem, como já estão pensando tal e qual os humanos.
A Inteligência Artificial “Genérica” pode, portanto, estar mais próxima de nós do que sequer poderíamos imaginar.
E você, caro leitor, o que “pensa” sobre isso?
* Os artigos publicados na seção Coluna do Blog Impacto refletem exclusivamente a opinião de seus autores, não representando, necessariamente, a visão da instituição.