É importante ressaltar, mais uma vez, que o massacre perpetrado pelo Hamas em 7 de outubro é inaceitável e merece repúdio total. Não há justificativa para o assassinato de mais de mil civis, independentemente do motivo alegado pela insurgência palestina. No entanto, a resposta de Israel não está isenta de críticas, uma vez que mais de 32 mil habitantes de Gaza foram mortos nos últimos seis meses, a maioria deles crianças e mulheres.
Os ataques a hospitais, ambulâncias e comboios humanitários configuram crimes de guerra, assim como o uso da fome como arma de terror. Recentemente, um ataque israelense matou sete integrantes da organização World Central Kitchen, causando indignação em todo o mundo. O pedido de desculpas do presidente de Israel e as demissões no exército são passos necessários, mas um cessar-fogo é fundamental para a construção de uma paz duradoura na região.
Além disso, uma nova polêmica surge com o uso da inteligência artificial pelos combatentes, em especial o sistema Lavender, que selecionou 37 mil supostos membros do Hamas como alvos de bombardeios. Relatos indicam que erros graves do algoritmo resultaram na morte de inocentes, levantando questões éticas sobre o emprego dessa tecnologia na guerra.
A utilização da inteligência artificial para tomar decisões que envolvem mortes indiscriminadas coloca em xeque a responsabilidade das autoridades envolvidas. Será possível responsabilizá-las por crimes de guerra em um cenário tão complexo e limítrofe? O testemunho de soldados que operam o sistema Lavender revela a frieza e desumanidade dessa tecnologia, que acelera o processo de eliminação de alvos e permite a morte de civis sem critérios claros.
Diante desse cenário de destruição e morte, é fundamental questionar o papel da tecnologia e das autoridades envolvidas nesse conflito, buscando formas de cessar a violência e preservar a vida dos inocentes em meio ao caos da guerra. A humanidade, mesmo diante de tanta barbárie, precisa encontrar caminhos para a paz e a justiça na região.






