Lavender e la Guerra Automatizzata a Gaza

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Finanziamenti personali e aziendali

Prestiti immediati

 


Sandro Sana : 20 Dicembre 2024 11:09

Prestito personale

Delibera veloce

 

Negli ultimi anni, l’utilizzo dell’intelligenza artificiale (AI) nei conflitti armati ha aperto scenari inediti e profondamente controversi. Una delle più recenti e discusse applicazioni riguarda l’esercito israeliano (IDF) e l’uso del sistema di intelligenza artificiale noto come “Lavender” nelle operazioni militari nella Striscia di Gaza. Questa tecnologia avanzata è stata impiegata per identificare e selezionare obiettivi da colpire durante i bombardamenti, ma la sua implementazione ha sollevato numerose critiche e preoccupazioni per le implicazioni etiche, legali e umanitarie.

Il Funzionamento del Sistema Lavender

Secondo un’inchiesta approfondita pubblicata da +972 Magazine, Lavender è un sofisticato algoritmo progettato per analizzare una grande quantità di dati di intelligence e identificare automaticamente sospetti militanti palestinesi. Lavender è stato sviluppato come parte del programma di modernizzazione dell’IDF, con l’obiettivo di migliorare l’efficacia delle operazioni militari attraverso l’uso dell’intelligenza artificiale predittiva. L’algoritmo si basa su enormi set di dati di intelligence raccolti da fonti diverse, tra cui:

  • Intercettazioni telefoniche.
  • Geolocalizzazione dei dispositivi mobili.
  • Profilazione attraverso i social media.
  • Analisi dei movimenti e delle abitudini personali.

L’IDF ha implementato questo sistema per velocizzare e automatizzare il processo di identificazione dei sospetti militanti e dei loro presunti nascondigli. Durante i conflitti recenti, in particolare nell’offensiva a Gaza del 2021, Lavender è stato utilizzato per individuare e colpire obiettivi con una rapidità e un’efficienza senza precedenti.

Prova Gratuitamente Business Log! L’Adaptive SOC italiano

Proteggi la tua azienda e ottimizza il tuo lavoro grazie al SOC di Business Log, il software leader per audit, log management e cybersicurezza realizzato in Italia. Business Log garantisce:

  • Conformità a NIS2, GDPR e ISO 27001
  • Analisi avanzata e prevenzione del dossieraggio
  • Semplice da installare, potente da usare
    Scarica ora la versione di prova gratuita per 30 giorni e scopri come Business Log può rivoluzionare la tua gestione dei log e la sicurezza IT!

    Promo Corso CTI

  • Lavender elabora grandi quantità di dati attraverso machine learning e algoritmi di analisi predittiva. Il sistema identifica comportamenti e modelli di attività che, secondo i criteri predefiniti dall’IDF, sono associati ai militanti di Hamas e di altre fazioni armate.

    Prestito condominio

    per lavori di ristrutturazione

     

    Il processo decisionale funziona in questo modo:

    1. Raccolta dei dati da fonti di intelligence digitali.
    2. Analisi dei pattern comportamentali per individuare sospetti.
    3. Generazione di liste di obiettivi, con dettagli sui movimenti e sugli indirizzi.
    4. Validazione rapida da parte degli ufficiali, spesso in pochi secondi.
    5. Esecuzione dell’attacco attraverso raid aerei mirati.

    Durante il conflitto a Gaza, il sistema Lavender ha identificato circa 37.000 potenziali obiettivi. Questo numero impressionante suggerisce che il processo decisionale è stato automatizzato a un livello mai visto prima. Mentre il sistema è stato progettato per “assistere” gli ufficiali dell’IDF, le decisioni venivano spesso convalidate quasi automaticamente, lasciando poco spazio alla verifica umana approfondita. In molti casi, un bersaglio veniva approvato per un bombardamento in meno di un minuto.

    Un Processo Decisionale Rapido ma Controverso

    Nonostante l’intento dichiarato di migliorare l’accuratezza e ridurre gli errori umani, Lavender non è privo di difetti. Secondo l’inchiesta di +972 Magazine, l’intervento umano nel processo decisionale è spesso minimo. Una volta che l’AI identifica un obiettivo, il tempo a disposizione degli ufficiali per eseguire una verifica è estremamente ridotto, spesso meno di un minuto.

    L’adozione di Lavender ha permesso all’IDF di agire con una rapidità senza precedenti. Tuttavia, questa velocità ha comportato una serie di rischi significativi. Gli attacchi aerei spesso colpivano abitazioni private mentre i sospetti si trovavano con le loro famiglie, portando a un alto numero di vittime civili. Secondo i resoconti, in alcuni casi l’AI si è basata su dati incompleti o errati, portando a errori di identificazione con conseguenze tragiche.

    Il tasso di errore stimato per Lavender è del 10%. Anche se questa percentuale può sembrare bassa in termini statistici, applicata a decine di migliaia di bersagli può tradursi in centinaia, se non migliaia, di vite umane perse a causa di errori dell’AI.

    Violazione dei Principi del Diritto Internazionale Umanitario

    Il diritto internazionale umanitario stabilisce principi fondamentali per la conduzione delle guerre, come la distinzione tra combattenti e civili e la proporzionalità nell’uso della forza. L’uso di un sistema AI come Lavender, con controllo umano limitato, mette a rischio il rispetto di questi principi. Bombardamenti basati su identificazioni automatizzate possono portare a violazioni delle Convenzioni di Ginevra, che richiedono di prendere tutte le precauzioni possibili per proteggere i civili.

    Prestito personale

    Delibera veloce

     

    Organizzazioni per i diritti umani, come Human Rights Watch e Amnesty International, hanno espresso profonda preoccupazione per l’impiego di queste tecnologie. La capacità dell’AI di agire senza una supervisione adeguata rappresenta una minaccia per il diritto alla vita e può costituire una forma di “giustizia sommaria” tecnologicamente avanzata ma eticamente discutibile.

    Confronto con l’Uso dell’AI in Altri Contesti Bellici

    L’uso dell’AI nei conflitti non è un’esclusiva dell’IDF. Anche in Ucraina, durante l’invasione russa, sono state utilizzate tecnologie di intelligenza artificiale per ottimizzare la difesa e identificare obiettivi nemici. Tuttavia, il caso di Lavender si distingue per l’ampiezza del suo utilizzo e la velocità decisionale. Mentre in Ucraina l’AI viene usata principalmente per scopi difensivi, nel contesto di Gaza è stata impiegata in una campagna di bombardamenti offensivi su larga scala.

    Questa distinzione solleva interrogativi su come l’AI possa essere regolamentata nei conflitti futuri e quale sia il limite etico per l’automazione delle decisioni militari.

    Un Futuro di Guerra Automatizzata

    La crescente dipendenza da sistemi di AI nei conflitti moderni potrebbe alterare radicalmente le modalità con cui vengono condotte le guerre. Gli esperti avvertono che una progressiva automazione delle decisioni belliche potrebbe portare a un “disimpegno morale” da parte degli esseri umani coinvolti, riducendo la percezione delle conseguenze delle azioni militari.

    Finanziamo agevolati

    Contributi per le imprese

     

    Inoltre, l’assenza di una regolamentazione internazionale chiara sull’uso dell’AI nei conflitti potrebbe creare un precedente pericoloso, incentivando una corsa agli armamenti tecnologici senza controlli adeguati. Senza linee guida rigorose, il rischio di abusi e violazioni dei diritti umani è destinato ad aumentare.

    Il caso di Lavender rappresenta un campanello d’allarme per la comunità internazionale. L’adozione dell’intelligenza artificiale nei conflitti richiede una riflessione profonda e l’implementazione di normative rigorose per garantire che queste tecnologie siano utilizzate in modo etico e responsabile. Il futuro della guerra automatizzata è già una realtà, e il mondo deve affrontare questa sfida con la massima attenzione per evitare un’ulteriore escalation di violazioni dei diritti umani e di sofferenze civili.

    Sandro Sana
    Membro del gruppo di Red Hot Cyber Dark Lab. Si occupa d’Information Technology dal 1990 e di Cybersecurity dal 2014 (CEH – CIH – CISSP – CSIRT Manager – CTI Expert), relatore a SMAU 2017 e SMAU 2018, docente SMAU Academy & ITS, membro CLUSIT e giornalista presso RedHot Cyber, Cybersecurity360 & Digital360.
    Visita il sito web dell’autore



    Source link

    ***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

    Visita il sito e gli articoli pubblicati cliccando sul seguente link

    Source link

    Finanziamo agevolati

    Contributi per le imprese