La maggioranza dell’informazione “alternativa”, risulta l’equivalente del collaboratore esterno, praticamente sono quelli che fanno da cassa di risonanza, come quelli che su facebook mettevano i messaggi “prima dose: fatto!”, non fanno altro che avvertire…
Rimedi? Soluzioni? Neppure l’ombra!
Cosi, il quadro si sporca sempre di più.
Naturalmente Blondet è professionalmente adeguato, ma insopportabilmente rassegnato, debole, inconcludente…
Presenta notizie, informa…
Anzi, iperinforma, cioè riempie l’aere di pericoli, illustrando meticolosamente il perchè devono avvenire.
Il suo unico rimedio? La supplica alla Madonna di turno…
Da questa breve ma nitida descrizione, capite che non amo questo giornalista.
Se dai una notizia, oltre a quella dovresti anche metterci dell’altro…
Per esempio?
Quando, a un ricercatore, viene permesso di filmare dentro un laboratorio?
Dopo aver preso accordi!
Che tipo di accordi?
Quelli sull’informazione da far passare!
Quando leggi “cristalli di colesterolo”, appare chiaro che ci sia una presa per il culo. Almeno a me…
Quando leggi del polietilene glicole, non c’è notizia è negli elementi dichiarati…
La notizia di quella cosa li, quel che contengono i vaccini, è una non notizia, la vera notizia sarebbe: a cosa realmente servono?
Visto che c’è un segreto militare su questi vaccini, deve esserci anche il segreto sullo scopo, che sarà uno scopo militare, a me pare logico…
Quale sarebbe quindi la notizia?
Lo scopo!
Ecco, sullo scopo e sulla volontà di imporre coercitivamente la vaccinazione a tutti, bisogna quindi fornire delle risposte.
Cominciamo invece con le domande…
Perchè Cina e Russia non usano i vaccini degli US-UK?
Se date la risposta, avete capito!
Vi do un indizio
Sistemi d’arma autonomi letali: sviluppi recenti
15 MARZO 2019
Trad
Dal 25 al 29 marzo, il Gruppo di esperti governativi (GGE) delle Nazioni Unite si incontrerà per il terzo anno consecutivo per discutere gli sviluppi e le strategie nel campo dei sistemi d’arma autonomi letali (LAWS). In qualità di organo sussidiario della Convenzione su alcune armi convenzionali (CCW), il GGE riunisce le Alte Parti contraenti, gli Stati firmatari, le organizzazioni internazionali, le organizzazioni non governative e gli organismi accademici nel tentativo di definire LEGGI, discutere le migliori pratiche e raccomandare misure per affrontare il potenziale sviluppo e utilizzo delle LEGGI in futuro. Sono trascorsi sei mesi dall’ultima riunione del GGE e questo sarà il primo dei due incontri del GGE che si terranno nel 2019 (per maggiori informazioni sui precedenti incontri del GGE, cfr. qui e qui ). Questo post coprirà tutto ciò che devi sapere su dove si trovano le parti interessate rilevanti prima della riunione di marzo.
In generale, le LAWS sono armi in grado di selezionare, rilevare e ingaggiare bersagli con un intervento umano minimo o nullo. Sebbene non esista una definizione univocamente accettata di LAWS, il termine in genere copre un’ampia gamma di potenziali sistemi d’arma, che vanno da armi completamente autonome che possono lanciare attacchi senza alcun coinvolgimento umano ad armi semi-autonome che richiedono un’azione umana affermativa per eseguire una missione. I critici di LAWS si concentrano principalmente sulle armi completamente autonome, soprannominando LAWS “robot assassini” e mettendo in dubbio la loro capacità di rispettare la vita umana e conformarsi al diritto umanitario internazionale (DIU). Altri, come il governo degli Stati Uniti, prevedono potenziali vantaggi della tecnologia, sostenendo che le funzionalità di targeting automatizzato di LAWS potrebbero effettivamente aumentare le capacità degli Stati di soddisfare i requisiti del DIU attraverso una maggiore precisione ed efficienza. Sebbene sia troppo presto per dire se le capacità di LAWS siano una caratteristica o un bug, le decisioni finali del GGE potrebbero avere profonde conseguenze per lo sviluppo e l’utilizzo di LAWS.
Sviluppi globali
Prima di passare in rassegna gli ultimi incontri del GGE e delle Alte Parti contraenti, vale la pena esaminare l’impulso globale sugli atteggiamenti nei confronti delle LEGGI ed evidenziare gli sviluppi chiave nella sfera pubblica e privata.
Per iniziare, Human Rights Watch (HRW) e la Campagna per fermare i robot assassini (CSKR) – due dei principali fautori di un divieto preventivo delle LEGGI – si sono tenuti impegnati sul fronte della difesa. Nell’agosto 2018, HRW ha pubblicato un rapporto in collaborazione con l’International Human Rights Clinic (IHRC) della Harvard Law School intitolato ” Ascolta l’appello: un imperativo morale e legale per vietare i robot killer “. Come nei suoi precedenti rapporti – vedi qui e qui – HRW ha chiesto un divieto preventivo sullo sviluppo, la produzione e l’uso di LAWS. Ma questo nuovo rapporto è andato oltre, sostenendo che le armi completamente autonome contravverrebbero alla clausola Martens, che è stato introdotto nel preambolo della Convenzione dell’Aia (II) del 1899 sulle leggi e gli usi della guerra terrestre, e garantisce di fatto un livello base di protezione ai sensi del DIU anche in assenza di trattati specificamente applicabili. Secondo HRW e IHRC, le armi completamente autonome non sarebbero in grado di rispettare i “principi di umanità” ei “indicatori di coscienza pubblica” – i due pilastri fondamentali della Martens Clause.
Pochi mesi dopo, HRW e CSKR hanno sondato ulteriormente questa idea di coscienza pubblica, pubblicando i risultati di uno studio di ricerca di mercato sulle implicazioni strategiche, legali e morali delle LEGGI. Lo studio ha rilevato che il 61% degli adulti intervistati in 26 paesi si oppone alla LEGGE, un aumento del 5% rispetto ai risultati del sondaggio nel 2017. Inoltre, la maggioranza degli intervistati in 20 di questi paesi ha espresso disapprovazione per la LEGGE, compresi quelli nei paesi i cui governi si sono opposti un divieto preventivo. Di conseguenza, ha concluso il CSKR che “l’opinione pubblica è in linea con la richiesta [del CSKR] di agire per prevenire lo sviluppo di robot assassini”. Anche se queste indagini non informano direttamente le analisi ai sensi del diritto internazionale (a meno che, come suggeriscono HRW e IHRC, non contribuiscano alla comprensione dei “dettami della coscienza pubblica”), forniscono un’interessante proxy di come l’ opinio juris – la convinzione di uno stato che qualcosa è legalmente obbligatorio – si sta sviluppando rispetto alle LEGGI.
Oltre agli sforzi di HSW e CSKR, al Forum per la pace di Parigi in occasione del 100° anniversario della fine della prima guerra mondiale, il Segretario generale delle Nazioni Unite Antonio Guterres ha chiesto esplicitamente il divieto delle LEGGI, affermando : “Immaginate le conseguenze di un sistema autonomo che potrebbe , di per sé, prende di mira e attacca gli esseri umani. Chiedo agli Stati di vietare queste armi, che sono politicamente inaccettabili e moralmente ripugnanti”. E a metà febbraio, all’incontro annuale dell’American Association for the Advancement of Science, i partecipanti hanno espresso insoddisfazione per i progressi complessivi del GGE. In particolare, il CSKR ha dichiarato la sua intenzione di riorientare i suoi sforzi di advocacy a livello nazionale, data la relativa inerzia e “diploma [tic] … falli [ure]” a livello internazionale.
Nel frattempo, anche nel settore privato, LAWS ha raccolto un’attenzione significativa. Nel giugno 2018, Google è stata presa di mira quando migliaia di suoi dipendenti hanno firmato una petizione che esortava l’azienda a cessare il coinvolgimento nel Progetto Maven, un contratto con il Dipartimento della Difesa per sviluppare l’intelligenza artificiale per l’analisi dei filmati dei droni (che i dipendenti di Google temevano potesse un giorno facilitare lo sviluppo o l’uso di LEGGI). Di fronte alla pressione dei dipendenti e degli esperti di tecnologia di tutto il mondo, Google ha successivamente annunciato la sua decisione di non rinnovare il contratto per Project Maven e ha promesso non “progettare o implementare l’IA … [per] tecnologie che causano o possono causare danni complessivi”. Nel luglio 2018, oltre 200 organizzazioni e 3.000 individui (tra cui Elon Musk, fondatori di Google DeepMind e amministratori delegati di varie società di robotica) hanno seguito l’esempio, impegnandosi a “non partecipare né sostenere lo sviluppo, la produzione, il commercio o l’uso di armi autonome letali. ” Alla luce di questi eventi altamente pubblicizzati, il Dipartimento della Difesa ha recentemente incaricato il Defense Innovation Board (che comprende leader tecnologici di alto profilo della Silicon Valley) di sviluppare principi etici per guidare l’uso dell’IA da parte del dipartimento nelle armi e nelle operazioni militari. Il consiglio ha già concluso la sua prima riunione e prevede di rendere pubbliche le sue raccomandazioni questo giugno.
L’articolo prosegue…
Ma quel che vi ho appena detto basta per capire a cosa servono i vaccini.
Di fatto non c’è più bisogno di eserciti…
Bastano questi robot?
Il vaccino in tal senso è quindi un sistema di localizzazione, in modo che puoi essere sempre agganciato dal rilevatore del Robot…
Di fatto il vaccino è comunque una condanna a morte, o come vittima del sistema immunitario o come vittima delle decisioni prese da qualcuno, di eliminarti…
Quindi questo spiega perchè Cina e Russia e India, si sono tirate fuori.
Già questo è un fatto logico…
Perchè invece US-UK e Israele sostengono questa cosa?
Capite ora perchè c’è il casino che c’è?
E i rimedi?
Magari ve li racconto a breve…

