Inteligência artificial letal: qual o perigo das “armas do futuro”
Desde o início dos tempos, a humanidade está em guerra. Inicialmente, os conflitos eram primitivos. Tribos de povos antigos lutaram com paus e pedras por terras e alimentos.
Nas guerras modernas, já utilizamos drones, mísseis com sistemas de orientação, sistemas de guerra electrónica e outras armas de alta tecnologia. Mas este não é o limite.
Neste momento, dezenas das maiores empresas do complexo militar-industrial em todo o mundo estão a trabalhar em sistemas autónomos que poderiam realizar tarefas militares sem intervenção humana. Não, não estamos falando de robôs antropomórficos como o Exterminador do Futuro do filme de mesmo nome. Os engenheiros estão tentando criar um algoritmo de software que no futuro será implementado em sistemas existentes e negará a participação humana em seu gerenciamento.
Por exemplo, hoje os drones são amplamente utilizados em conflitos armados. Neste caso, cada drone individual é controlado por um operador, e é a pessoa quem toma a decisão de usar certas capacidades do UAV no campo de batalha.
Por sua vez, um sistema baseado em IA poderia executar a tarefa de forma autônoma, contando com dados sobre um alvo potencial carregado nele, bem como analisando a situação circundante.
Parece fantástico. Entretanto, alguns países já estão perto de introduzir tais sistemas nas suas tropas.
A única questão que permanece é a que conduzirá tal evolução dos exércitos.
É claro que os sistemas baseados em IA têm uma série de vantagens. Em particular, a utilização de armas autónomas elimina completamente o factor humano, o que muitas vezes conduz a mais vítimas civis e destruição. Além disso, os sistemas robóticos salvarão a vida de militares que não terão que participar diretamente nas hostilidades.
No entanto, a “inteligência artificial letal” também tem desvantagens significativas. Um deles é o risco de tal sistema ser invadido por hackers, o que levará às consequências mais imprevisíveis. Além disso, a produção em massa de armas autónomas irá inevitavelmente torná-las disponíveis para organizações não estatais e terroristas.
Neste momento, a ONU está a discutir a possibilidade de limitar ou mesmo proibir tais armas por razões éticas e outras. No entanto, o processo está a decorrer tão lentamente que, mesmo antes de a decisão acima mencionada ser tomada, mais de um exército no mundo pode ter armas com IA.
informação