Carta Aberta Contra Armas Autônomas

Antes de solicitar algo neste blog, primeiramente assine a carta:

 

Esta carta aberta foi anunciada no dia 28 de julho, na abertura da conferência IJCAI 2015 em 28 de julho Jornalistas que desejam ver o comunicado de imprensa pode entrar em contato com Toby Walsh . Hospedagem, verificação de assinatura e gerenciamento de lista são suportados pelo FLI; para perguntas administrativas sobre esta carta, por favor, entre em contato com tegmark@mit.edu .

Armas Autônomas: uma carta aberta de AI e Pesquisadores de robótica

Armas Autônomas selecionam e engajam alvos sem intervenção humana. Eles podem incluir, por exemplo, quadcopters armados que pode procurar e eliminar as pessoas que preencham determinados critérios pré-definidos, mas não incluem mísseis de cruzeiro ou drones pilotados por controle remoto para que os seres humanos fazem todas as decisões de segmentação. Tecnologia de Inteligência Artificial (AI) chegou a um ponto onde a implantação de tais sistemas é – praticamente se não legalmente – viável dentro de anos, não décadas, e as apostas são altas: armas autônomas têm sido descritas como a terceira revolução na guerra, depois de pólvora e armas nucleares.

Muitos argumentos têm sido feitos a favor e contra as armas autônomas, por exemplo, que a substituição de soldados humanos por máquinas é bom, reduzindo perdas para o proprietário, mas ruim, diminuindo, assim, o limiar para ir para a batalha. A questão-chave para a humanidade hoje é se começar uma corrida armamentista AI global ou para impedir que ele seja iniciado. Se qualquer grande potência militar empurra em frente com o desenvolvimento AI arma, uma corrida armamentista global é praticamente inevitável, eo ponto final dessa trajetória tecnológica é óbvia: armas autônomas se tornarão os Kalashnikovs de amanhã. Ao contrário de armas nucleares, eles não requerem caro ou difícil de obter matérias-primas, de modo que eles vão se tornar onipresente e barato para todos os poderes militares significativos para produzir em massa. Será somente uma questão de tempo até que apareça no mercado negro e nas mãos de terroristas, ditadores que desejam controlar melhor o seu povo, os senhores da guerra que pretendem perpetrar limpeza étnica, etc. armas Autónomas são ideais para tarefas como assassinatos, desestabilizando nações, subjugando as populações e matar seletivamente um grupo étnico específico. Portanto, acreditamos que a AI corrida armamentista militar não seria benéfico para a humanidade. Há muitas maneiras em que AI pode fazer campos de batalha mais seguros para os seres humanos, especialmente os civis, sem criar novas ferramentas para matar pessoas.

Assim como a maioria dos químicos e biólogos não têm interesse na construção de armas químicas ou biológicas, a maioria dos pesquisadores de IA não têm interesse em construir armas AI – e não quer que os outros para manchar seu campo, ao fazer isso, potencialmente criando uma grande reação pública contra o AI que restrinja seus futuros benefícios para a sociedade. Na verdade, químicos e biólogos têm amplo apoio de acordos internacionais que tenham proibido êxito armas químicas e biológicas, assim como a maioria dos físicos apoiou os tratados que proíbem as armas nucleares espaciais e as armas laser que causam cegueira.

Em resumo, acreditamos que a AI tem grande potencial para beneficiar a humanidade de muitas formas, e que o objetivo do campo deve ser o de fazê-lo.Começar um AI corrida armamentista militar é uma má idéia, e deve ser impedida por uma proibição das armas autônomas ofensivos além do controle humano significativo.

Assine em: http://futureoflife.org/AI/open_letter_autonomous_weapons

Anúncios

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s