Por Midierson Maia, PhD
O artigo Computing Machinery and Intelligence publicado por Alan Turing em outubro de 1950 é um marco importante na Teoria da Computação, e também na história da inteligência artificial. O artigo começa apresentando o Jogo de Imitação , amplamente conhecido como “Teste de Turing”. Por meio desse teste, Turing buscou descobrir se era possível para uma máquina “pensar”, como os seres humanos fazem.
Turing (1950) argumenta:
Proponho considerar a questão: “As máquinas podem pensar?” Isso deve começar com as definições do significado dos termos “máquina” e “pensar”. As definições podem ser formuladas de modo a refletir, tanto quanto possível, o uso normal das palavras, mas essa atitude é perigosa. Se o significado das palavras ‘máquina’ e ‘pensar’ forem encontrados examinando-se como são comumente usadas, é difícil escapar da conclusão de que o significado e a resposta à pergunta: “As máquinas podem pensar?” deve ser procurado em uma pesquisa estatística como uma pesquisa Gallup. Mas isso é um absurdo. Em vez de tentar tal definição, substituirei a questão por outra, que está intimamente relacionada a ela e é expressa em palavras relativamente inequívocas (Turing, 2003, p. 433).
Os shows trecho Turing tentando t o compreender os significados das palavras “máquina” e “pensar”. Turing começou seu artigo incentivando os leitores a fazer um exercício semântico e filosófico sobre essas palavras. Este é um ponto de vista filosófico porque o tema “corpo-máquina” faz parte do pensamento de Descartes. O termo faz parte do livro de Descartes Discourse on the Method (2017 [1649]) and Passions of the Soul (2017 [1649]).
Segundo Murta e Falabretti (2012, p. 76), o ponto de vista mecanicista de Descartes explica o corpo humano como uma máquina. Dos relógios aos sistemas hidráulicos, a comparação com o funcionamento do corpo humano feita por Descartes foi moldada em máquinas. É importante lembrar que, no século XVII, Descartes lidava com limitações para explicar o corpo humano a partir de uma posição mecanicista. Embora sua teoria seja superada por novos modelos teóricos, ela não torna Descartes irrelevante.
Nadando contra a maré cartesiana, o médico Randolph Nesse (2016), cientista da Universidade do Arizona, critica Descartes dizendo: “O corpo não é uma máquina”, e justifica: “Máquinas são produtos de design, corpos são produtos de seleção natural, e isso os torna diferentes de maneiras fundamentais. A complexidade orgânica dos mecanismos corporais é qualitativamente diferente da complexidade mecânica das máquinas ”(Nesse, 2016, p. 1).
Nesse argumenta que corpos e máquinas biológicas falham por motivos diversos. Se as máquinas são projetadas e não selecionadas naturalmente de acordo com a lógica darwiniana, torna-se difícil estabelecer uma comparação entre uma máquina e todos os corpos biológicos. Essa comparação seria válida apenas segundo uma perspectiva religiosa, pressupondo-se a existência de Deus, que poderia desempenhar um papel de “projetista de corpos biológicos, o que não é o objetivo deste artigo.
Além disso, Randolph Nesse (2016, p. 1) afirma “Corpos têm partes que podem ter limites borrados e muitas funções e muitas vezes estão conectados uns aos outros de maneiras que são difíceis para a mente humana compreender.” Nesse caso, a tese cartesiana é contradita em seu cerne pela abordagem lógica. A evidência de processos sofisticados dentro dos corpos biológicos é clara. Um exemplo disso é o sistema imunológico das bactérias, que combate os vírus a partir do mecanismo conhecido como CRISPR / Cas.
Por meio do CRISPR / Cas, fragmentos de material genético são utilizados pelo sistema orgânico no combate a vírus e outras ameaças. Para tal funcionamento, não existe uma programação específica que oriente o que uma determinada bactéria ou célula do sistema imunológico fará. O sistema se adapta de acordo com o contexto, sob condições específicas. Independentemente da sofisticação do corpo biológico, ainda é muito difícil prever uma falha corporal total levando animais à morte. Isso reforça os argumentos de Randolph: “Corpos têm partes que podem ter limites borrados”. Se os corpos biológicos fossem máquinas, como um carro ou um computador sem inteligência artificial, poderíamos simplesmente substituir uma parte disfuncional e tudo funcionaria relativamente bem, sendo possível prever o funcionamento e a duração da parte substituída. As máquinas, se mantidas, podem durar para sempre,
Os argumentos anteriores reforçam a análise semântica e filosófica, feita por Turing (1950) no início do texto Computing Machinery and Intelligence . Embora desenvolvendo a análise para o segundo termo “pensar” classificando o corpo biológico e a máquina como entidades distintas, o ato de pensar é um ato singular do corpo biológico, pois o exercício do pensamento é imprevisível. O pensamento não pode ser previsto nem programado.
Teares ou carros não têm capacidade para tomar decisões. E até carros inteligentes podem ser programados, tornando-os previsíveis. Mesmo se um veículo obedecer a uma ordem de programação aleatória, raramente exibirá um comportamento inesperado fora do controle dos programadores, a menos que uma falha de projeto afete a máquina. Deve-se enfatizar que as dimensões da inteligência artificial ainda não foram incluídas nesta análise. O exemplo em relação aos carros inteligentes não inclui aprendizado de máquina, baseado em dados, aprendizado profundo ou visão computacional. O objetivo deste artigo é abordar os tópicos mais recentes. Para tanto, foi escolhido o texto de Turing, por ser uma das referências mais importantes para computação e inteligência artificial.
Considerando os argumentos levantados até o momento, é possível tirar uma conclusão prévia a respeito do questionamento de Turing sobre os significados de “máquina” e “pensar”. Se o significado de “máquina” se refere a algo planejado mecânica e eletronicamente pelos projetistas, isso significa que é impossível entender a máquina como uma entidade capaz de pensar, pois o pensamento é imprevisível e dinâmico, escapando ao controle do ser humano.
Um exemplo de imprevisibilidade pode ser visto na religião. Por mais fanáticos que sejam as pessoas, não há garantias explícitas de que manterão a lealdade eterna aos valores religiosos. Tudo vai depender de um contexto específico, envolvendo outras pessoas presentes no contexto. As máquinas não agem de acordo com os contextos. Em uma perspectiva antropológica, os contextos são feitos por significados das culturas, a partir daí as máquinas não pensam. Máquinas são máquinas. Não pode ser comparado a corpos biológicos.
Inteligência Artificial e suas Implicações
É claro que um desafio ontológico foi desenvolvido por Alan Turing no primeiro parágrafo de Computing Machinery and Intelligence , ao cunhar a famosa pergunta “as máquinas podem pensar?”. Para concluir se uma máquina pode realmente pensar, foi necessário um mergulho profundo nas raízes do problema, propondo uma análise sobre os significados das palavras “máquina” e “pensar”.
Para entender os resultados da inteligência artificial, principalmente no século 21, é necessário sair do clássico conceito de “máquina”, pois, como máquina, ela não pode pensar. A Lingüística, a Semiótica e a Psicanálise mostram que, em termos da percepção humana, quando os significados se perdem, as pessoas têm que reordenar sua significação, remodelando os significados de acordo com o contexto. Isso pode ser exemplificado pelo jogo Taboo. Se a palavra “máquina” for eliminada da análise de inteligência artificial, o que restará? Como lidar com um tópico de inteligência artificial sem, pelo menos, citar essa palavra? A questão é: se as máquinas não pensam, elas devem ser mantidas fora da análise proposta neste artigo. Portanto, será necessário utilizar um novo modelo ontológico.
Considerando a inteligência artificial, o aprendizado profundo e a computação cognitiva como referências, termos como “andróide” e “mutantes” (seres híbridos) são mais úteis do que a palavra “máquina”. Quando um corpo biológico recebe um marca-passo, ou uma prótese integrada ao sistema nervoso central, recebendo comandos dele, o conceito de máquina deve ser substituído.
Quando um dispositivo é adaptado e sincronizado com os comandos biológicos do corpo, o conceito de máquina não é útil, pois o dispositivo passa a fazer parte de todo um sistema, e parte de processos que garantem diferentes tipos de vida. Dispositivos, como o marca-passo, desempenham o papel de órgãos e até células.
Se uma entidade, feita com matérias orgânicas e inorgânicas, incluindo inteligência artificial (com alto poder de processamento baseado em redes neurais, reconhecimento de padrões e aprendizado profundo) atingir um nível de processamento de linguagem natural, o mundo enfrentará um novo ser. Será uma nova espécie, capaz de pensar, sentir e, em última instância, capaz de desejar.
Após realizar esta análise sobre o significado dos termos “máquina” e “pensar, o ponto principal desta análise é“ pode uma máquina desejar? ”. As máquinas serão capazes de desejar? linguistas e psicanalistas como Jacques Lacan e Saussure mostram como pensamento e desejo estão ligados. Se as máquinas não pensam, elas não desejam, porque desejos e vontades dependem de pensamentos. Por ser uma máquina, os pensamentos não ocorrerão. Se os pensamentos não forem colocados, a linguagem também não acontecerá.
Se a linguagem não ocorre em máquinas, desejos ou vontades não são possíveis, porque linguagem e desejos estão ligados. Porém, ultrapassando o conceito de máquina, abrindo-se para reconhecer ‘novas entidades de IA’, trabalhando com inteligência artificial, deep learning e visão computacional, tudo muda, e novas possibilidades se abrem para novas possibilidades para esta análise.
O robô Sophia , desenvolvido pela Hanson Robotics, é um exemplo de como as entidades de IA podem ser entendidas de acordo com o novo cenário tecnológico. Sophia é um dos humanóides mais emblemáticos já criados. O criador de Sophia, David Hanson, não mediu esforços para fazer de Sophia o maior patrimônio de sua empresa. Sophia representa um avanço considerável na tecnologia de inteligência artificial, empurrando a tênue fronteira que divide os conceitos de vida animada e inanimada.
O artigo Tudo o que você precisa saber sobre Sophia, a primeira cidadã do mundo, publicado pela Forbes Magazine em 7 de novembro de 2017, foca nos “direitos robóticos”. A lei foi criada para garantir que a igualdade e a justiça humanas sejam salvaguardadas por meio de um código. Não existem normas legais sobre as relações entre coisas, como máquinas, paus e pedras. Padrões legais e morais foram criados para estabelecer limites ao uso de coisas inanimadas (pedras, facas, etc.), como não esfaquear ou apedrejar alguém. Não há garantia de como as entidades artificiais usarão paus, facas e pedras.
Sophia foi criada para ser uma entidade artificial, cujo comportamento não é previsível, mas, por sua vez, Sophia é uma peça de marketing da Hanson Robotics. Por limitações técnicas, Sophia ainda não deve ser considerada uma entidade artificial. Atualmente é uma máquina previsível e limitada. As próximas entidades artificiais atuarão de acordo com o contexto e as referências recebidas. A questão dos “direitos robóticos” pode ser discutida eticamente de acordo com um cenário no qual a inteligência artificial está evoluindo rapidamente. É revelador uma situação assustadora e emocionante, dados os inúmeros usos possíveis para a inteligência artificial. SofiaA primeira aparição de em jornais de todo o mundo causou um pânico distópico. Há um medo de que as máquinas de IA atuem sem controle humano, alcançando um ponto em que possam se rebelar contra os seres humanos, causando uma carnificina em massa, como mostrado em filmes e séries distópicas como Terminator e Black Mirror .
Considerando o medo causado pela distopia, é importante olhar cientificamente para esse sentimento, buscando entender o que está por trás do medo da distopia. Com base na psicanálise, é possível perceber que o medo da inteligência artificial está ligado ao medo de como as máquinas poderiam “desejar” destruir a humanidade. Levando a análise a um ponto de vista otimista, as máquinas poderiam querer salvar a humanidade em vez de destruí-la? Com base em projetos avançados em robótica e inteligência artificial, como Sophia , pode-se dizer que, em breve, ambas as perspectivas podem se tornar reais.
O filme Terminator 2 mostra como o mesmo personagem, interpretado por Arnold Schwarzenegger em Terminator 1 , retorna para defender John Connor de um massacre. O filme apresenta diversas situações em que é possível observar “máquinas” inteligentes (não máquinas, mas entidades) tomando decisões sofisticadas, como as decisões humanas tomadas por Sarah Connor e seu filho John Connor. Ao longo da narrativa, vários são os momentos em que humanos e entidades artificiais (vistas no filme como máquinas) aparecem compartilhando significados por meio de dimensões culturais, necessárias para manter a cultura e sustentar desejos, pensamentos e desejos.
No mesmo filme, John Connor demonstra um forte sentimento pela entidade T-800 (terminator), interpretada por Schwarzenegger. Ele chora quando o robô decide se exterminar em um caldeirão de metal líquido. É importante ressaltar que o suicídio é uma ação do ser humano. O suicídio é um ato que decorre de desordens simbólicas e imaginárias. Sob a perspectiva psicanalítica, o suicídio pode ser causado por um conflito com a realidade, baseado na falta de significados necessários para sustentar a razão da vida. Se uma futura entidade de IA, com base em uma decisão não programada, decidir se extinguir, essa entidade ficará muito próxima da natureza humana.
É importante destacar que a análise acima parte de possibilidades, mas é útil perceber que o desenvolvimento da inteligência artificial evolui para a criação de um ser como nós. As pesquisas em deep learning e visão computacional, baseadas no reconhecimento de padrões, buscam o desenvolvimento de entidades capazes de pensar e sentir como o ser humano.
Os filósofos Nick Bostrom e Eliezer Yudkowsky, no artigo The Ethics of Artificial Intelligence , publicado em 2014 por Cambridge Handbook of Artificial Intelligence, argumentam: “Dois critérios são comumente propostos como estando ligados de forma importante ao status moral, separadamente ou em combinação: senciência e sapiência (ou personalidade) ”(Bostrom & Yudkowsky, 2014, p. 322).
Segundo os autores, senciência é a capacidade de experiência fenomenal ou “qualia”. Em outras palavras, senciência é a capacidade de sentir dor e sofrimento. Se uma entidade (não uma máquina) habilitada pela superinteligência artificial sente dor, então a entidade tem senciência. Além disso, sapiência significa a capacidade de uma entidade de se reconhecer, como os seres humanos o fazem.
Um exemplo fictício de entidades artificiais capazes de conter senciência e sapiência são os personagens da série Westworld , da HBO. Personagens como Maeve e Dolores Albernathy são quase humanos. Eles sentem dor e sofrem. Eles têm sonhos, memórias e desejos. O exemplo é fictício, no entanto, em termos de desenvolvimento de IA, tudo o que as grandes empresas de tecnologia estão fazendo agora é desenvolver IA no mesmo caminho.
Após a análise dos resultados da inteligência artificial, é importante lembrar que algumas tecnologias feitas por seres humanos apresentam inicialmente um estado de nulidade. Isso significa que os resultados tecnológicos dependerão do uso pretendido. É fato que o mesmo acontece com a inteligência artificial. É importante lembrar que, embora não exatamente da mesma maneira, a distopia nas séries Terminator , Black Mirror e Westworld pode ser alcançada. Dependerá de como e por quem tal tecnologia será manipulada e que status moral as novas entidades artificiais terão.
Be Right Back é o episódio do Black Mirror que apresenta um contexto distópico no qual a personagem Martha encomenda uma cópia do namorado Ash (que morreu em um acidente de trânsito) a uma startup especializada em inteligência artificial. A partir dos dados de navegação de Ash nas redes sociais, a empresa envia para Martha uma entidade de IA que funciona segundo um software que simula as ações do namorado nas redes sociais, mas na vida real.
No episódio, o avatar de Ash sente medo, frio e também pode fazer desejos. O episódio mostra que a formação do desejo só foi possível com a obtenção de uma cópia das ações (linguagem) de Ash em seus registros na rede social. É importante lembrar que, na série, as ações de Ash na vida real são baseadas em suas ações em seu perfil nas redes sociais. A inteligência artificial, neste caso, é o que torna possível fazer o avatar do Ash. Porém, para criar o avatar, o aprendizado de máquina e o PNL – Processamento de Linguagem Natural foram implantados simulando a linguagem natural humana.
Considerando alguns exageros, o exemplo já pode ser visto em chatbots e bots sociais, que aprendem de acordo com as interações humanas nas redes sociais. O termo “bot” vem do recorte da primeira sílaba da palavra robô. O termo não é novo. Após ser aplicado aos contextos das redes sociais, o significado foi reformulado. Como qualquer software, que inclui algoritmos, cada bot tem uma função e um propósito. Existem bots legalmente feitos para serem usados por empresas para fins de atendimento ao cliente. Além disso, existem bots sociais usados para simular outros tipos de ações humanas nas redes sociais.
Os bots sociais não são usados para gerenciar conteúdo em redes, mas sim para enganar os usuários. Os bots sociais geralmente são feitos para agir como humanos, encorajando-os a produzir um certo tipo de conteúdo. Embora os bots sociais não gerenciem conteúdo, eles podem influenciar a perspectiva de um usuário de mídia social sobre a realidade e seus desejos, impulsionando as ações.
Ao impactar o conteúdo produzido por humanos, mudando os significados, os bots sociais podem remodelar as interações das pessoas. Dependendo da influência causada por esses bots, os impactos podem ser aumentados. O nível de impactos dependerá do número de bots sociais controlados por botmasters (humanos que espalham e controlam um grande número de bots sociais em redes).
Quando o Teste de Turing é analisado de acordo com sua finalidade, é possível dizer que o teste poderia ser vencido por esses “atores” que simulam ações humanas nas redes sociais? Com base nessa perspectiva, fica comprovado que os bots sociais podem enganar consumidores e eleitores em todo o mundo, impulsionando não apenas seus desejos, mas também seus medos.
O Cambridge Analytica é um caso sobre roubo de dados e perfis falsos do Facebook. O caso é útil para mostrar como os humanos podem ser enganados e manipulados por algoritmos. Nessa perspectiva, pode-se dizer que a inteligência artificial já deu vários indicadores de quão capaz é de vencer o Teste de Turing, brincando com o desejo de milhões de pessoas.
Entidades Inteligentes, Artificiais e Cognitivas
A psicologia e a neurociência nos ajudam a entender como o cérebro humano funciona para reconhecer padrões previamente registrados por meio de experiências contextuais vividas por indivíduos em seu ambiente. A lingüística é outra área que contribui para a compreensão de como um indivíduo, a partir da linguagem, concebe a realidade a partir da produção de sentidos. A linguagem é usada por indivíduos para apoiá-los no mundo. Além disso, as línguas funcionam moldando realidades. É importante destacar que desejos e vontades surgem da interação entre as pessoas e a realidade.
A psicanálise lacaniana é útil para compreender como os padrões influenciam os modelos de comportamento, desejos e fantasias, moldados pela linguagem na esfera social. Relações sociais, desejos, fantasias, desejos e comportamentos surgem com base em estruturas simbólicas antes do nascimento dos indivíduos e são moldados de acordo com normas e valores sociais. Serve como suporte para que os indivíduos concebam sua percepção da realidade.
Os desenvolvimentos da inteligência artificial, incluindo técnicas de visão computacional e reconhecimento de padrões, continuam rumo à imitação do cérebro humano, funcionando não apenas como operações mais simples, como cálculos matemáticos, mas também simulando como os humanos aprendem e entendem suas realidades. O despertar de entidades artificiais, capazes de desejar, pode acontecer quando as entidades alcançam a capacidade de se reconhecer e processar o significado como os humanos fazem.
Uma simples busca no Google Scholar mostra que o termo “Pattern Recognition” está se tornando mais utilizado por pesquisadores em seus artigos científicos. Está presente em trabalhos relacionados às áreas de informática e robótica, estendendo-se também à psicologia da aprendizagem. É uma demonstração de como esse conceito tem sido utilizado em estudos aplicados à inteligência artificial. Esses avanços despertaram interesses nas ciências humanas, como filosofia, psicologia e psicanálise.
Christopher Michael Bishop, um cientista da computação e professor de ciência da computação na Universidade de Edimburgo, dedicou um trabalho significativo às disciplinas de reconhecimento de padrões e aprendizado de máquina. Seu trabalho mais importante, intitulado Pattern Recognition and Machine Learning (Bishop, 2006), mostra como a comunidade acadêmica, em associação com grandes empresas de tecnologia, tem dedicado tempo e recursos para criar sistemas avançados de visão computacional envolvendo o reconhecimento de padrões.
Levando essa análise para uma dimensão empírica, é possível destacar casos em que a inteligência artificial já consegue reconhecer, por meio de níveis de reconhecimento e interpretação profundos, detalhes de imagens gráficas contendo signos previamente construídos por seres humanos.
O projeto Microsoft Seeing AI mostra o poder da visão computacional trabalhando por meio do reconhecimento de padrões. O aplicativo foi criado para ajudar os cegos a reconhecerem vários tipos de objetos na frente do observador. O menu é simples e fornece apenas as funções que os usuários desejam usar. O aplicativo também pode ser usado para ler textos em documentos. Os atos da máquina podem ser comparados aos atos do cérebro humano. É uma condição inicial para a criação de um sistema computacional inteligente o suficiente para entender e processar sinais e linguagem. Este é um novo cenário, no qual entidades artificiais poderiam se tornar entidades capazes não apenas de imitar seus criadores em tarefas elementares, mas também capazes de processar a realidade como os humanos o fazem.
O artigo Artificial Intelligence and Sign Theory (1989), publicado por Jean Guy Meunier, é um esforço interdisciplinar para aproximar inteligência artificial, filosofia e semiótica. Meunier destaca a importância das abordagens interdisciplinares e apresenta os dados necessários para mostrar como a inteligência artificial não é mais um tópico exclusivo dos programas STEM. O autor também enfatiza a importância de manter a atenção na “manipulação” de significados que fazem parte dos processos de comunicação entre humanos e entidades artificiais (vistos na verdade pela maioria dos pesquisadores como “máquinas”).
Meunier (1989) argumenta:
Qual é a interpretação a ser dada a esses símbolos que são ‘manipulados’ por um computador em um sistema de IA? A resposta aqui parece estar relacionada à função representacional que esses símbolos desempenham no sistema de processamento. De acordo com Haugeland (1986: 28), eles representam algo do mundo exterior ou para Newell e Simon (1976) um processo interno de algum tipo pelo qual alguma ação é realizada (Meunier, 1989, p. 8).
A inteligência artificial (baseada em algoritmos que simulam ações de comunicação humana no ambiente digital) está impactando a comunicação e a linguagem. Os sistemas de IA estão se desenvolvendo entre as práticas sociais diárias. Isso ajuda os pesquisadores a entender como os usuários de mídia social não percebem a presença de IA e nem os resultados sociais causados pela interferência do bot social em conversas de mídia social. Quando os bots afetam a produção de significados, eles podem participar de atos conversacionais, envolvendo entidades humanas e artificiais para moldar (e remodelar) a realidade, onde os desejos são feitos de acordo com significados e valores.
Conclusão
É notável o surgimento de máquinas capazes de simular o cérebro humano. Embora as máquinas possam simular o cérebro humano, isso não significa que elas possam pensar nem desejar. O desenvolvimento da IA mostra como os humanos buscam criar entidades que possam ser nossa imagem e semelhança, realizando uma série de tarefas, semelhantes às ações humanas. O objetivo das empresas de tecnologia de IA é criar entidades que possam obter vantagens em algumas tarefas, como reconhecer o rosto de uma pessoa em uma multidão. O sistema de segurança chinês provou como a visão computacional exerce esse poder quando estão tentando encontrar alguém para prender.
As reportagens sobre inteligência artificial de diferentes canais de mídia têm servido para informar e divulgar o trabalho de algumas start-ups, como a Hanson Robotics. No entanto, a informação criada e repetida pela mídia muitas vezes se esgota em um vago debate sobre aplicações práticas e de mercado que envolvem inteligência artificial.
A análise dos resultados tecnológicos, a partir de diferentes tecnologias, como inteligência artificial, computação quântica e engenharia genética, é algo que só a academia faz. Os filmes e séries distópicos fornecem uma perspectiva de como a tecnologia pode afetar o futuro. Considerando algumas limitações entre realidade e ficção, filmes e séries podem ajudar os pesquisadores a imaginar os impactos e resultados, no entanto, é importante lembrar que os limites entre ficção e realidade devem ser considerados.
O filme Terminator , feito há mais de trinta anos, oferece uma perspectiva de como as máquinas de IA podem ser materializadas. As máquinas criadas pela Hanson Robotics e Boston Dynamics não funcionam como Terminator. No entanto, alguns recursos são considerados semelhantes, como reconhecimento de padrões e visão computacional.
Para avaliar cientificamente os resultados sociais da IA, é necessário analisar o problema com as lentes das ciências humanas. Analisar tecnologias com lentes de antropologia, semiótica, psicanálise, filosofia e sociologia ajuda os pesquisadores a manter o foco no ser humano como a questão principal. Levar o problema às lentes da ciência humana ajuda os cientistas a entender como os desejos humanos podem ser entrelaçados com os desejos de entidades artificiais, que (em breve) deixarão de ser máquinas para se tornarem novas espécies híbridas.
A série Westworld da HBO demonstra como um conflito entre os desejos do robô e os desejos dos seres humanos pode ocorrer. Um futuro repleto de entidades artificiais, capazes de desejar, só será possível se tais entidades atingirem um estágio avançado sendo capazes de processar significados e valores como os humanos o fazem. Além disso, quanto à existência de desejos em tais entidades, é importante enfatizar que desejos e desejos precisam de objetos para satisfazer os indivíduos.
A psicanálise oferece um corpus teórico para compreender a formação dos desejos e vontades, também a psicanálise nos ajuda a compreender o papel dos objetos anteriormente formados por significados. Quando a inteligência artificial atingir o seu pleno desenvolvimento, tornando-se superinteligência artificial e voltada para entidades artificiais capazes de compreender e processar significados, o ser humano finalmente obterá a resposta para a pergunta “Pode uma máquina desejar?”. Enquanto isso, tudo o que os pesquisadores têm é um longo caminho a ser pavimentado com abordagens científicas interdisciplinares, incluindo necessariamente as ciências humanas em seus estudos de inteligência artificial.
Em termos de pesquisas de IA, a ciência pode seguir um curso melhor e bem definido, tentando entender não só as máquinas atuais, mas também as entidades artificiais que se aproximam, fazendo-se a nossa imagem e semelhança, capazes de pensar e, acima de tudo, capaz de desejar.
Publicado originalmente em inglês por Midierson Maia via Medium
Midierson Maia é Ph.D em Comunicação, Professor, Empreendedor e fundador da Preemptor AI Canada. Preemptor usa inteligência artificial para ajudar os alunos a terem sucesso por meio da originalidade: www.preemptor.ai.
Midierson chegou ao Canadá em fevereiro de 2019. Em janeiro de 2020, sua startup foi aprovada para o Canadian Startup Visa Program, um dos programas de residência permanente mais competitivos do Canadá.
Atualmente, seu preemptor.ai start-up está sendo acelerado pelo Spark Centre, em Oshawa, ON, Canadá.
Fale com ele: [email protected]