Inteligência artificial letal: qual o perigo das “armas do futuro”

2

Desde o início dos tempos, a humanidade está em guerra. Inicialmente, os conflitos eram primitivos. Tribos de povos antigos lutaram com paus e pedras por terras e alimentos.

Nas guerras modernas, já utilizamos drones, mísseis com sistemas de orientação, sistemas de guerra electrónica e outras armas de alta tecnologia. Mas este não é o limite.



Neste momento, dezenas das maiores empresas do complexo militar-industrial em todo o mundo estão a trabalhar em sistemas autónomos que poderiam realizar tarefas militares sem intervenção humana. Não, não estamos falando de robôs antropomórficos como o Exterminador do Futuro do filme de mesmo nome. Os engenheiros estão tentando criar um algoritmo de software que no futuro será implementado em sistemas existentes e negará a participação humana em seu gerenciamento.

Por exemplo, hoje os drones são amplamente utilizados em conflitos armados. Neste caso, cada drone individual é controlado por um operador, e é a pessoa quem toma a decisão de usar certas capacidades do UAV no campo de batalha.

Por sua vez, um sistema baseado em IA poderia executar a tarefa de forma autônoma, contando com dados sobre um alvo potencial carregado nele, bem como analisando a situação circundante.

Parece fantástico. Entretanto, alguns países já estão perto de introduzir tais sistemas nas suas tropas.

A única questão que permanece é a que conduzirá tal evolução dos exércitos.

É claro que os sistemas baseados em IA têm uma série de vantagens. Em particular, a utilização de armas autónomas elimina completamente o factor humano, o que muitas vezes conduz a mais vítimas civis e destruição. Além disso, os sistemas robóticos salvarão a vida de militares que não terão que participar diretamente nas hostilidades.

No entanto, a “inteligência artificial letal” também tem desvantagens significativas. Um deles é o risco de tal sistema ser invadido por hackers, o que levará às consequências mais imprevisíveis. Além disso, a produção em massa de armas autónomas irá inevitavelmente torná-las disponíveis para organizações não estatais e terroristas.

Neste momento, a ONU está a discutir a possibilidade de limitar ou mesmo proibir tais armas por razões éticas e outras. No entanto, o processo está a decorrer tão lentamente que, mesmo antes de a decisão acima mencionada ser tomada, mais de um exército no mundo pode ter armas com IA.

2 comentários
informação
Caro leitor, para deixar comentários sobre a publicação, você deve login.
  1. -2
    15 Dezembro 2023 11: 31
    O trabalho fez do homem um macaco.
    A inteligência artificial fará de uma pessoa um macaco.
  2. FAZ
    0
    15 Dezembro 2023 19: 03
    A principal vantagem dos drones autônomos sobre os controlados pelo operador é que eles podem realizar missões de combate sem controle externo e sem o sistema de posicionamento GLONASS, portanto:
    - pode operar a centenas de quilômetros de profundidade atrás das linhas inimigas, onde é difícil ou impossível organizar canais de rádio para seu controle do operador;
    - invulnerável aos meios de interferência de rádio inimigos.

    o risco de tal sistema ser invadido por hackers

    faz parte do risco de armas autônomas estarem disponíveis para

    para organizações não estatais e terroristas

    Pois o uso ilegal de armas autônomas exige a superação de sistemas organizacionais e/ou técnicos de proteção contra acesso não autorizado à programação e ativação de drones autônomos.