Palantir, la società del miliardario Peter Thiel, ha lanciato Palantir Artificial Intelligence Platform (AIP), un software progettato per eseguire modelli di linguaggi di grandi dimensioni come GPT-4 su reti private basate sull’intelligenza artificiale. L’azienda ha dimostrato come i militari possono usare l’AIP per fare la guerra.
In un video, un operatore utilizza un chatbot simile a ChatGPT per comandare la ricognizione dei droni, fare più piani di attacco e gestire il disturbo delle comunicazioni nemiche.
Nello scenario Palantir, “l’operatore militare responsabile del monitoraggio dell’attività nell’Europa orientale” riceve un avviso AIP che un avversario sta raccogliendo equipaggiamento militare vicino a forze amiche. L’operatore ha quindi chiesto al chatbot di mostrargli maggiori dettagli, dopo aver ottenuto qualche informazione in più ha chiesto all’IA di indovinare quale unità militare avesse il nemico.
Dopo che l’intelligenza artificiale ha fornito un’immagine leggermente migliore di ciò che stava accadendo, l’operatore ha chiesto una foto migliore del campo di battaglia. In quel momento, AI ha lanciato droni che hanno condotto la ricognizione e hanno trovato un carro armato T-80, un veicolo russo di epoca sovietica, vicino a truppe amiche, scrivere scheda madre.
L’operatore chiede quindi all’IA cosa fare. Secondo il video, AIP genera tre possibili modi per ingaggiare il nemico, quindi invia queste opzioni lungo la catena di comando. Le opzioni sono artiglieria a lungo raggio o missili Javelin. Questa IA farà anche sapere a tutti se le truppe vicine hanno abbastanza missili Javelin per questa missione.
Le persone sono praticamente irrilevanti nell’intero processo
Il progetto Palantir è, ovviamente, molto pericoloso e strano. Nonostante il “fattore umano” della demo AIP, sembra che le persone abbiano fatto poco più che chiedere al chatbot cosa fare e poi approvare l’azione. La guerra con i droni ha semplificato la guerra, rendendo più facile per le persone uccidere a distanza con la semplice pressione di un pulsante. Le conseguenze del sistema sono ben documentate. Nella visione di Palantir del futuro dell’esercito, più sistemi saranno automatizzati e astratti.
Non è impossibile per l’intelligenza artificiale giudicare che, diciamo, un autobus pieno di pensionati sia in realtà un’unità nemica d’élite
Anche qui Palantir non vende intelligenza artificiale costruita appositamente per i militari, ma offre invece l’integrazione di sistemi esistenti in un ambiente controllato. Il problema è che questi sistemi esistenti sono imperfetti e soggetti a gravi errori, “allucinazioni” e altre questioni problematiche.
L’illusione della sicurezza e del controllo
Ciò che Palantir offre è un’illusione di sicurezza e controllo per il Pentagono mentre inizia ad adottare l’intelligenza artificiale. “I grandi modelli e algoritmi linguistici devono essere controllati in questo contesto altamente regolamentato e sensibile per garantire che vengano utilizzati in modo legale ed etico”, ha affermato Palantir in una presentazione.
Secondo Palantir, questo controllo implica tre cose fondamentali. La prima affermazione è che AIP sarà in grado di implementare questo sistema in reti nascoste e “dispositivi perimetrali tattici”. Afferma che sarà in grado di analizzare i dati riservati e in tempo reale in modo responsabile, legale ed etico. Secondo quanto riferito, gli utenti avranno il controllo su ciò che ogni modello linguistico principale può fare all’interno del sistema Palantir.
Tuttavia, Palantir non ha mai spiegato come ciò risolverebbe i vari problemi dell’attuale modello di intelligenza artificiale e quali sarebbero le conseguenze in un contesto militare. Al di là del “quadro” e delle “salvaguardie”, non hanno fornito un’unica soluzione al problema, e hanno promesso di utilizzare l’intelligenza artificiale militare “etica” e “legale”.
“Secchione di bacon. Lettore generico. Appassionato di web. Introverso. Professionista freelance. Pensatore certificato.”