Questo sito web fa uso di cookie. I cookie ci aiutano a fornire i nostri servizi. Utilizzando i nostri servizi l'utente accetta che inseriamo dei cookie. I vostri dati sono al sicuro con noi. Non trasmettiamo le vostre analisi o i vostri dati di contatto a terzi! Per ulteriori informazioni può consultare la nostra informativa sulla protezione dei dati.
Subtitle "Afrikaans" was produced by machine.Subtitle "አማርኛ" was produced by machine.Subtitle "العربية " was produced by machine.Subtitle "Ārāmāyâ" was produced by machine.Subtitle "azərbaycan dili " was produced by machine.Subtitle "беларуская мова " was produced by machine.Подзаглавието "България" е създадено от машина.Subtitle "বাংলা " was produced by machine.Subtitle "བོད་ཡིག" was produced by machine.Subtitle "босански" was produced by machine.Subtitle "català" was produced by machine.Subtitle "Cebuano" was produced by machine.Subtitle "ગુજરાતી" was produced by machine.Subtitle "corsu" was produced by machine.Podtitul "Čeština" byl vytvořen automaticky.Subtitle "Cymraeg" was produced by machine.Subtitle "Dansk" was produced by machine.Untertitel "Deutsch" wurde maschinell erzeugt.Subtitle "Untertitel" was produced by machine.Subtitle "Ελληνικά" was produced by machine.Subtitle "English" was produced by machine.Subtitle "Esperanto" was produced by machine.El subtítulo "Español" se generó automáticamente.Subtitle "Eesti" was produced by machine.Subtitle "euskara" was produced by machine.Subtitle "فارسی" was produced by machine.Subtitle "Suomi" was produced by machine.Le sous-titre "Français" a été généré automatiquement.Subtitle "Frysk" was produced by machine.Subtitle "Gaeilge" was produced by machine.Subtitle "Gàidhlig" was produced by machine.Subtitle "Galego" was produced by machine.Subtitle "Schwizerdütsch" was produced by machine.Subtitle "هَوُسَ" was produced by machine.Subtitle "Ōlelo Hawaiʻi" was produced by machine.Subtitle "עברית" was produced by machine.Subtitle "हिन्दी" was produced by machine.Subtitle "Mẹo" was produced by machine.Subtitle "Hrvatski" was produced by machine.Subtitle "Kreyòl ayisyen " was produced by machine.Subtitle "Magyar" was produced by machine.Subtitle "Հայերեն" was produced by machine.Subtitle "Bahasa Indonesia " was produced by machine.Subtitle "Asụsụ Igbo " was produced by machine.Textun"Íslenska" var framkvæmt vélrænt.Sottotitoli "Italiano" sono stati generati automaticamente.字幕は"日本語" 自動的に生成されました。Subtitle "Basa Jawa" was produced by machine.Subtitle "ქართული" was produced by machine.Subtitle "қазақ тілі " was produced by machine.Subtitle "ភាសាខ្មែរ" was produced by machine.Subtitle "ಕನ್ನಡ" was produced by machine.Subtitle "한국어" was produced by machine.Subtitle "कोंकणी語" was produced by machine.Subtitle "کوردی" was produced by machine.Subtitle "Кыргызча" was produced by machine.Subtitle " lingua latina" was produced by machine.Subtitle "Lëtzebuergesch" was produced by machine.Subtitle "Lingala" was produced by machine.Subtitle "ພາສາ" was produced by machine.Subtitle "Lietuvių" was produced by machine.Subtitle "Latviešu" was produced by machine.Subtitle "fiteny malagasy" was produced by machine.Subtitle "te reo Māori" was produced by machine.Subtitle "македонски јазик" was produced by machine.Subtitle "malayāḷaṁ" was produced by machine.Subtitle "မြန်မာစာ " was produced by machine.Subtitle "Монгол хэл" was produced by machine.Subtitle "मराठी" was produced by machine.Subtitle "Bahasa Malaysia" was produced by machine.Subtitle "Malti" was produced by machine.Subtitle "ဗမာစာ " was produced by machine.Subtitle "नेपाली" was produced by machine.Subtitle "Nederlands" was produced by machine.Subtitle "Norsk" was produced by machine.Subtitle "chiCheŵa" was produced by machine.Subtitle "ਪੰਜਾਬੀ" was produced by machine.Subtitle "Polska" was produced by machine.Subtitle "پښتو" was produced by machine.Subtitle "Português" was produced by machine.Subtitle "Română" was produced by machine.Subtitle "Язык жестов (Русский)" was produced by machine.Субтитры "Pусский" были созданы машиной.Subtitle "Kinyarwanda" was produced by machine.Subtitle "सिन्धी" was produced by machine.Subtitle "Deutschschweizer Gebärdensprache" was produced by machine.Subtitle "සිංහල" was produced by machine.Subtitle "Slovensky" was produced by machine.Subtitle "Slovenski" was produced by machine.Subtitle "gagana fa'a Samoa" was produced by machine.Subtitle "chiShona" was produced by machine.Subtitle "Soomaaliga" was produced by machine.Subtitle "Shqip" was produced by machine.Subtitle "србски" was produced by machine.Subtitle "Sesotho" was produced by machine.Subtitle "Basa Sunda" was produced by machine.Undertext "Svenska" är maskinell skapad.Subtitle "Kiswahili" was produced by machine.Subtitle "தமிழ்" was produced by machine.Subtitle "తెలుగు" was produced by machine.Subtitle "Тоҷикй" was produced by machine.Subtitle "ภาษาไทย" was produced by machine.Subtitle "ትግርኛ" was produced by machine.Subtitle "Tagalog" was produced by machine.Subtitle "Türkçe" was produced by machine.Subtitle "татар теле" was produced by machine.Subtitle "Українська " was produced by machine.Subtitle "اردو" was produced by machine.Subtitle "Oʻzbek" was produced by machine.Subtitle "Tiếng Việt" was produced by machine.Subtitle "Serbšćina" was produced by machine.Subtitle "isiXhosa" was produced by machine.Subtitle "ייִדיש" was produced by machine.Subtitle "Yorùbá" was produced by machine.Subtitle "中文" was produced by machine.Subtitle "isiZulu" was produced by machine.
kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не носи отговорност за некачествен превод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nenese žádnou odpovědnost za chybné překlady.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV übernimmt keine Haftung für mangelhafte Übersetzung.kla.TV accepts no liability for inadequate translationkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV no se hace responsable de traducciones incorrectas.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV n'assume aucune responsabilité en cas de mauvaise traduction.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV nem vállal felelősséget a hibás fordításértkla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV tekur enga ábyrgð á áræðanleika þýðingarinnarKla.TV non si assume alcuna responsabilità per traduzioni lacunose e/o errate.Kla.TV は、不適切な翻訳に対して一切の責任を負いません。kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV не несет ответственности за некачественный перевод.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.Kla.TV tar inget ansvar för felaktiga översättningar.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.kla.TV accepts no liability for defective translation.
Armi autonome – l’ultimo bastione dell’élite finanziaria globale deve cadere!
In base alla statistica ufficiale dell’esercito statunitense, attualmente muoiono più soldati americani per suicidio che per azione nemica. L’uomo non è una “macchina assassina” – ma i sistemi di armi autonome si. L’intelligenza artificiale uccide senza rimorsi di coscienza. Questo fatto rende tale tecnologia sempre più attraente per i guerrafondai globali? Gli attivisti della pace gridano allarme.
[continua...]
Le armi autonome decidono e agiscono in modo indipendente con l’aiuto dell’intelligenza artificiale, senza influsso umano. Certo, attualmente sono ancora in fase di sviluppo, ma tengono già la comunità mondiale col fiato sospeso. Di cosa si tratta esattamente e qual’è il problema?
Le armi autonome, chiamate anche robot killer, sono considerate la “terza rivoluzione nella gestione bellica”. Proprio come in passato l’invenzione della polvere da sparo e delle armi nucleari, anche i sistemi di armi autonome cambiano radicalmente la strategia di guerra. Le armi autonome sono sistemi che agiscono da soli. Sono programmate così da identificare e attaccare obiettivi con l’aiuto dell’intelligenza artificiale e senza il controllo umano. Possono essere droni, navi, carri armati, lanciarazzi, robot e altre armi, tutte senza uomini a bordo. Sistemi di armi completamente autonomi con intelligenza artificiale adattiva non sono ancora ufficialmente parte integrante degli eserciti di questo mondo.
Dal 2014, le Nazioni Unite tengono convegni a Ginevra in cui 75 nazioni negoziano sul divieto di sistemi di armi autonome letali per regolamentare i robot killer. Un accordo comune non è realistico perché alcuni Stati perseguono i propri interessi. Stando a quanto dicono degli attivisti per la pace, 26 stati sono favorevoli al divieto di tali armi, tra cui l’Austria e tutti i paesi in via di sviluppo. La Cina si è espressa a favore del divieto di utilizzo. Gli Stati Uniti sono totalmente contrari alle restrizioni allo sviluppo. Anche in Germania ci sono aziende che sono coinvolte in questo sviluppo e quindi alimentano ulteriormente la corsa internazionale agli armamenti.
Ma perché le armi autonome sono così richieste, ad esempio dall’esercito statunitense? Una risposta chiara a questa domanda la si trova dando uno sguardo al rapido aumento del tasso di suicidi e alla devastante condizione psicologica dei soldati statunitensi: secondo le statistiche ufficiali dell’esercito americano, attualmente muoiono più soldati americani per suicidio che per azione nemica. Difficilmente s'identificano con le cosiddette guerre “umanitarie”, che in realtà non sono altro che guerre strategiche di aggressione, e soffrono a vita di conflitti di coscienza a causa della guerra crudele, anche contro la popolazione civile. Ci sono veterani di guerra che restituiscono in massa i loro ordini al merito perché si vergognano degli atti di guerra e mostrano profondo pentimento. Anche i piloti di droni, che uccidono dalle loro scrivanie come in un gioco per computer e tendono ad avere meno compassione a causa della distanza dal campo di battaglia, sono “a pezzi” dopo pochi anni. Decenni di studi psicologici hanno inoltre mostrato che la maggior parte dei soldati in combattimento non sparano ai soldati nemici, ma li mancano appositamente.
Questo palesa che l’uomo in fondo nel suo animo non è una “macchina da guerra”. I movimenti pacifisti e le dimostrazioni in tutto il mondo sottolineano questo fatto. Per i guerrafondai ossessionati dal potere e per i burattinai globali dietro di loro, ci vogliono sistemi d’arma autonomi, cioè robot killer, che funzionino perfettamente e senza compromessi – senza mettere in discussione, senza compassione, senza coscienza, non per ultimo come protezione contro masse di persone arrabbiate. Infatti sempre più persone afferrano i nessi globali e non sono più disposte a farsi sfruttare e strumentalizzare. L’umanità non accetterà a lungo andare che il controllo dell'intero sistema monetario, di tutti i governi, dei paesi e delle loro risorse sia nelle mani di poche famiglie.
Ogni tipo di attivisti per la pace di ogni nazionalità danno quindi l’allarme: lo sviluppo di sistemi d’arma autonomi dev’essere vietato in tutto il mondo. Più di 2.500 ricercatori e 176 organizzazioni nel campo dell’Intelligenza Artificiale hanno già firmato un impegno volontario a non condurre ricerche su sistemi d’armi autonomi letali. Con la loro firma i partecipanti s’impegnano “a non sostenere, né a contribuire allo sviluppo, alla produzione, al commercio o all’uso di armi letali autonome”. Ma mancano molti nomi grandi. Né Google, né Alphabet, la Holding di Google, hanno firmato l’impegno volontario; anche la Boston Dynamics – produttore di famosi modelli di robot – non è ancora sulla lista. Manca anche la presenza di gruppi pertinenti del settore degli armamenti. L’obiettivo degli attivisti è quindi quello di avere un effetto che vada ben oltre la cerchia dei firmatari, attirando l’attenzione dell’opinione pubblica sui pericoli delle armi autonome.
Un cortometraggio intitolato “Slaughterbots”, in italiano “robot da macello” mostra quanto siano devastanti effettivamente le armi autonome già in azione. L’istituto statunitense “Future of Life” (FLI), che si è posto lo scopo di minimizzare i rischi esistenziali per l’umanità, ha pubblicato il video il 12 novembre 2017. Milioni di persone lo hanno cliccato in poche settimane. Questo dà in forma fittizia una previsione deterrente su come, ad esempio, i critici di sistema o gruppi etnici indesiderati possano essere liquidati in un batter d’occhio. Conclusione: Fermate questa tecnologia!
Eccovi alcuni estratti dal video:
L’anno scorso i piloti dei nostri clienti hanno effettuato quasi 3.000 scatti di precisione e di questo siamo estremamente orgogliosi. Ti permette di separare i cattivi dai buoni. È una gran cosa. Ma abbiamo qualcosa di molto più grande. I tuoi figli probabilmente ne hanno uno di quelli, vero? Non proprio.
Pilota bastardo? No. Questa capacità è unicamente IA, Intelligenza Artificiale. Vola da solo. Il suo processore può reagire cento volte più velocemente che un essere umano. Il movimento stocastico è in modalità anti-cecchino. Proprio come qualsiasi altro dispositivo mobile oggi, ha telecamere e sensori. E proprio come nei telefonini e nelle applicazioni dei social media, anche il suo riconoscimento facciale funziona. Ci sono dentro tre grammi di carica cava. Ed è così che funziona.
Hai visto che cosa? Questo piccolo colpo è sufficiente per penetrare il cranio e distruggere tutto ciò che si trova dietro di esso. Si dice sempre che non sono le armi, ma le persone a uccidere. Beh, di fatto non lo fanno. Diventano emotive, disobbediscono agli ordini, mancano apposta i bersagli. Qui vediamo quindi come decidono le armi. Ora, fidati – erano tutti cattivi. Si trattava di un attacco aereo di precisione chirurgica. Si tratta di uno dei prodotti della gamma completa.
Programmati come uno sciame, questi cosi possono infiltrarsi in edifici, automobili e treni, schivare persone e proiettili, e superare quasi ogni contromisura. Sono inarrestabili. Beh, ho detto che è una gran cosa. Perché? Perché pensiamo in grande. Guarda, con un contratto da 25 milioni di dollari ti compri questo. Abbastanza per uccidere mezza città, la metà cattiva. Il nucleare è acqua passata. Elimina il tuo nemico nella sua interezza – e questo praticamente senza rischi. Caratterizzalo, fai partire lo sciame e riposati. Tutto questo puoi averlo oggi.
Le armi stupide colpiscono dove le dirigi. Le armi intelligenti elaborano dati. Se riesci a trovare il tuo nemico con l’aiuto dei dati – anche con un hashtag – puoi colpire un’ideologia malvagia proprio dove inizia.
Questo cortometraggio è più che una semplice speculazione. Mostra i risultati dell’integrazione e miniaturizzazione delle tecnologie che abbiamo già. Sono Stuart Russell, professore di informatica a Berkeley. Lavoro sull’intelligenza artificiale (IA) da oltre 35 anni. Il suo potenziale per il bene dell’umanità è enorme, anche in difesa. Ma sarà devastante per la nostra sicurezza e libertà lasciare che le macchine decidano di uccidere persone. Migliaia di miei colleghi sono d’accordo su questo punto. Abbiamo ancora la possibilità d'impedire il futuro che avete appena visto, ma il lasso di tempo per poter agire si sta chiudendo in fretta!
Testo della trasmissione
scarica
28.03.2019 | www.kla.tv/14077
Le armi autonome decidono e agiscono in modo indipendente con l’aiuto dell’intelligenza artificiale, senza influsso umano. Certo, attualmente sono ancora in fase di sviluppo, ma tengono già la comunità mondiale col fiato sospeso. Di cosa si tratta esattamente e qual’è il problema? Le armi autonome, chiamate anche robot killer, sono considerate la “terza rivoluzione nella gestione bellica”. Proprio come in passato l’invenzione della polvere da sparo e delle armi nucleari, anche i sistemi di armi autonome cambiano radicalmente la strategia di guerra. Le armi autonome sono sistemi che agiscono da soli. Sono programmate così da identificare e attaccare obiettivi con l’aiuto dell’intelligenza artificiale e senza il controllo umano. Possono essere droni, navi, carri armati, lanciarazzi, robot e altre armi, tutte senza uomini a bordo. Sistemi di armi completamente autonomi con intelligenza artificiale adattiva non sono ancora ufficialmente parte integrante degli eserciti di questo mondo. Dal 2014, le Nazioni Unite tengono convegni a Ginevra in cui 75 nazioni negoziano sul divieto di sistemi di armi autonome letali per regolamentare i robot killer. Un accordo comune non è realistico perché alcuni Stati perseguono i propri interessi. Stando a quanto dicono degli attivisti per la pace, 26 stati sono favorevoli al divieto di tali armi, tra cui l’Austria e tutti i paesi in via di sviluppo. La Cina si è espressa a favore del divieto di utilizzo. Gli Stati Uniti sono totalmente contrari alle restrizioni allo sviluppo. Anche in Germania ci sono aziende che sono coinvolte in questo sviluppo e quindi alimentano ulteriormente la corsa internazionale agli armamenti. Ma perché le armi autonome sono così richieste, ad esempio dall’esercito statunitense? Una risposta chiara a questa domanda la si trova dando uno sguardo al rapido aumento del tasso di suicidi e alla devastante condizione psicologica dei soldati statunitensi: secondo le statistiche ufficiali dell’esercito americano, attualmente muoiono più soldati americani per suicidio che per azione nemica. Difficilmente s'identificano con le cosiddette guerre “umanitarie”, che in realtà non sono altro che guerre strategiche di aggressione, e soffrono a vita di conflitti di coscienza a causa della guerra crudele, anche contro la popolazione civile. Ci sono veterani di guerra che restituiscono in massa i loro ordini al merito perché si vergognano degli atti di guerra e mostrano profondo pentimento. Anche i piloti di droni, che uccidono dalle loro scrivanie come in un gioco per computer e tendono ad avere meno compassione a causa della distanza dal campo di battaglia, sono “a pezzi” dopo pochi anni. Decenni di studi psicologici hanno inoltre mostrato che la maggior parte dei soldati in combattimento non sparano ai soldati nemici, ma li mancano appositamente. Questo palesa che l’uomo in fondo nel suo animo non è una “macchina da guerra”. I movimenti pacifisti e le dimostrazioni in tutto il mondo sottolineano questo fatto. Per i guerrafondai ossessionati dal potere e per i burattinai globali dietro di loro, ci vogliono sistemi d’arma autonomi, cioè robot killer, che funzionino perfettamente e senza compromessi – senza mettere in discussione, senza compassione, senza coscienza, non per ultimo come protezione contro masse di persone arrabbiate. Infatti sempre più persone afferrano i nessi globali e non sono più disposte a farsi sfruttare e strumentalizzare. L’umanità non accetterà a lungo andare che il controllo dell'intero sistema monetario, di tutti i governi, dei paesi e delle loro risorse sia nelle mani di poche famiglie. Ogni tipo di attivisti per la pace di ogni nazionalità danno quindi l’allarme: lo sviluppo di sistemi d’arma autonomi dev’essere vietato in tutto il mondo. Più di 2.500 ricercatori e 176 organizzazioni nel campo dell’Intelligenza Artificiale hanno già firmato un impegno volontario a non condurre ricerche su sistemi d’armi autonomi letali. Con la loro firma i partecipanti s’impegnano “a non sostenere, né a contribuire allo sviluppo, alla produzione, al commercio o all’uso di armi letali autonome”. Ma mancano molti nomi grandi. Né Google, né Alphabet, la Holding di Google, hanno firmato l’impegno volontario; anche la Boston Dynamics – produttore di famosi modelli di robot – non è ancora sulla lista. Manca anche la presenza di gruppi pertinenti del settore degli armamenti. L’obiettivo degli attivisti è quindi quello di avere un effetto che vada ben oltre la cerchia dei firmatari, attirando l’attenzione dell’opinione pubblica sui pericoli delle armi autonome. Un cortometraggio intitolato “Slaughterbots”, in italiano “robot da macello” mostra quanto siano devastanti effettivamente le armi autonome già in azione. L’istituto statunitense “Future of Life” (FLI), che si è posto lo scopo di minimizzare i rischi esistenziali per l’umanità, ha pubblicato il video il 12 novembre 2017. Milioni di persone lo hanno cliccato in poche settimane. Questo dà in forma fittizia una previsione deterrente su come, ad esempio, i critici di sistema o gruppi etnici indesiderati possano essere liquidati in un batter d’occhio. Conclusione: Fermate questa tecnologia! Eccovi alcuni estratti dal video: L’anno scorso i piloti dei nostri clienti hanno effettuato quasi 3.000 scatti di precisione e di questo siamo estremamente orgogliosi. Ti permette di separare i cattivi dai buoni. È una gran cosa. Ma abbiamo qualcosa di molto più grande. I tuoi figli probabilmente ne hanno uno di quelli, vero? Non proprio. Pilota bastardo? No. Questa capacità è unicamente IA, Intelligenza Artificiale. Vola da solo. Il suo processore può reagire cento volte più velocemente che un essere umano. Il movimento stocastico è in modalità anti-cecchino. Proprio come qualsiasi altro dispositivo mobile oggi, ha telecamere e sensori. E proprio come nei telefonini e nelle applicazioni dei social media, anche il suo riconoscimento facciale funziona. Ci sono dentro tre grammi di carica cava. Ed è così che funziona. Hai visto che cosa? Questo piccolo colpo è sufficiente per penetrare il cranio e distruggere tutto ciò che si trova dietro di esso. Si dice sempre che non sono le armi, ma le persone a uccidere. Beh, di fatto non lo fanno. Diventano emotive, disobbediscono agli ordini, mancano apposta i bersagli. Qui vediamo quindi come decidono le armi. Ora, fidati – erano tutti cattivi. Si trattava di un attacco aereo di precisione chirurgica. Si tratta di uno dei prodotti della gamma completa. Programmati come uno sciame, questi cosi possono infiltrarsi in edifici, automobili e treni, schivare persone e proiettili, e superare quasi ogni contromisura. Sono inarrestabili. Beh, ho detto che è una gran cosa. Perché? Perché pensiamo in grande. Guarda, con un contratto da 25 milioni di dollari ti compri questo. Abbastanza per uccidere mezza città, la metà cattiva. Il nucleare è acqua passata. Elimina il tuo nemico nella sua interezza – e questo praticamente senza rischi. Caratterizzalo, fai partire lo sciame e riposati. Tutto questo puoi averlo oggi. Le armi stupide colpiscono dove le dirigi. Le armi intelligenti elaborano dati. Se riesci a trovare il tuo nemico con l’aiuto dei dati – anche con un hashtag – puoi colpire un’ideologia malvagia proprio dove inizia. Questo cortometraggio è più che una semplice speculazione. Mostra i risultati dell’integrazione e miniaturizzazione delle tecnologie che abbiamo già. Sono Stuart Russell, professore di informatica a Berkeley. Lavoro sull’intelligenza artificiale (IA) da oltre 35 anni. Il suo potenziale per il bene dell’umanità è enorme, anche in difesa. Ma sarà devastante per la nostra sicurezza e libertà lasciare che le macchine decidano di uccidere persone. Migliaia di miei colleghi sono d’accordo su questo punto. Abbiamo ancora la possibilità d'impedire il futuro che avete appena visto, ma il lasso di tempo per poter agire si sta chiudendo in fretta!
di hm.
https://www.sueddeutsche.de/digital/killerroboter-warum-autonome-waffen-wohl-nicht-verboten-werden-1.4108994
https://www.heise.de/newsticker/meldung/Autonome-Waffen-mit-KI-Auf-dem-Weg-zur-Schlachtfeld-Singularitaet-4027249.html
http://derwaechter.org/hochgeruestete-us-armee-zeigt-sich-voellig-wehrlos-gegen-neuen-feind
https://www.spektrum.de/news/tausende-ki-forscher-geloben-verzicht-auf-waffenentwicklung/1579178
https://en.wikipedia.org/wiki/Future_of_Life_Institute
https://en.wikipedia.org/wiki/Slaughterbots
https://derstandard.at/2000068137922/Slaughterbots-Kurzfilm-warnt-vor-autonomen-Killerrobotern