O Google está se comprometendo a não usar inteligência artificial para armas ou vigilância. Isso após funcionários protestarem contra o envolvimento da empresa no Project Maven, um programa piloto do Pentágono que usa inteligência artificial para analisar filmagens de drone. O Google vai continuar a trabalhar com militares do USA em segurança cibernética, busca e resgate e outros projetos não ofensivos.
No mês de Maio Sundar Pichai, CEO do Google, foi pego de surpresa. Mais de três mil funcionários, de estagiários a engenheiros com anos de casa, assinaram uma carta (PDF) pedindo que a companhia deixe de colaborar com o Pentágono no projeto Maven e não participe de “negócio de guerra”.
"A tecnologia está sendo desenvolvida para as forças armadas e que, quando entregue, poderá facilmente ser empregada em atividades diferentes." (Afirmação realizada na carta)
Nem mesmo o fato de companhias como Amazon e Microsoft contribuírem há algum tempo com programas de defesa dos Estados Unidos tranquilizam os funcionários. Eles afirmam que isso não torna a participação do Google menos arriscada e mencionam o antigo lema “don’t be evil” (não seja mau) para lembrar o alcance que a companhia tem sobre bilhões de pessoas.
O CEO do Google, Sundar Pichai, anunciou a mudança em um conjunto de princípios da empresa com inteligência artificial publicado nesta quinta-feira (7). Os princípios têm como objetivo governar o uso da inteligência artificial pelo Google e são uma resposta à pressão dos funcionários sobre a empresa para que fossem criadas diretrizes para a utilização de IA.“Não podemos terceirizar as responsabilidades morais das nossas tecnologias. Os valores internos do Google deixam isso claro: cada um de nossos usuários confia em nós. Esse contrato põe em risco a reputação do Google e contraria nossos principais valores”, diz outro trecho da carta.
Inteligência Artificial Socialmente Benéfica
O Google vai se concentrar em criar uma inteligência artificial “socialmente benéfica”, disse Pichai, e evitar projetos que causem “danos gerais”. A companhia aceitará contratos governamentais e com os militares norte-americanos desde que eles não violem seus princípios, acrescentou o CEO. Como a IA é desenvolvida e usada terá um impacto significativo na sociedade por muitos anos”, escreveu Pichai. “Esses não são conceitos teóricos; são padrões concretos que vão governar nossa pesquisa e nosso desenvolvimento de produto, além de impactar nossas decisões de negócio.”O Project Maven
“Não buscaremos renovação de contratos para o Project Maven!. Por isso, estamos agora trabalhando com nossos clientes para cumprir com responsabilidade nossas obrigações de uma maneira que funcione a longo prazo para eles e que também seja consistente com nossos princípios de IA”. “Na maioria das frentes, esses princípios são bem pensados, e, com algumas ressalvas, recomendamos que outras grandes empresas de tecnologia estabeleçam diretrizes e objetivos semelhantes para o seu trabalho de IA”, Peter Eckersley, cientista-chefe de computação da Electronic Frontier Foundation, disse ao Gizmodo. Para melhorar seus princípios, o Google deveria se comprometer com uma revisão independente e transparente para garantir que suas regras sejam aplicadas corretamente, afirmou Eckersley. As afirmações de Pichai sobre não usar inteligência artificial para vigilância também deixaram algo a desejar. “A empresa se limitou a ajudar apenas os projetos de vigilância de IA que não violem as normas aceitas internacionalmente”. “Poderia ser mais reconfortante se o Google tentasse evitar a criação de sistemas de vigilância assistidos por IA.” Disse EckersleyO Google terá que oferecer mais transparência pública quanto aos sistemas que constrói. Caso contrário, continuaremos contando com funcionários dispostos a arriscar seus cargos para garantir que a empresa “não faça o mal”.
Fonte: GizModo e Engadget