Skip Navigation
Chatcontrol considerato come prova generale

Chatcontrol considerato come prova generale ==========

«Il braccio di ferro infinito di Chatcontrol continua, e chi si stanca è destinato a perdere. E’ una prova generale, che definirà il futuro, anzi la sopravvivenza, dei diritti digitali negli anni a venire.»

Il post di @calamarim

lealternative.net/2024/07/18/c…

@privacypride

0
Vietare l’uso del bollino di fragilità INVALSI: venti associazioni inviano un reclamo al Garante della Privacy

Vietare l’uso del bollino di fragilità INVALSI: venti associazioni inviano un reclamo al Garante della Privacy ==========

@privacypride

Mentre nelle scuole iniziano i test Invalsi per gli studenti dell’ultimo anno delle scuole secondarie di secondo grado in Gazzetta Ufficiale viene pubblicato il decreto 19 del 2 marzo 2024 (PNRR), che inserisce i risultati delle prove Invalsi nel curriculum dello studente. Nel frattempo alcune associazioni e organizzazioni che operano nel mondo della scuola hanno inviato un reclamo al Garante per la Protezione dei Dati Personali sulla classificazione degli alunni “fragili” con cui chiedono di vietare a INVALSI tale trattamento. Riportiamo di seguito il testo del Reclamo con l’elenco delle venti associazioni firmatarie.

Grazie a @mcp per la segnalazione

> > > ### AL GARANTE PER LA PROTEZIONE DEI DATI PERSONALI P.ZZA VENEZIA, 11 00187 ROMA ### > >

> > > Reclamo ex art. 77 del Regolamento (Ue) 2016/679 e artt. da 140-bis a 143 del Codice in materia di protezione dei dati personali, recante disposizioni per l’adeguamento dell’ordinamento nazionale al Regolamento > ---------- > >

In qualità di associazioni di insegnanti e genitori di alunni residenti in Italia e frequentanti la scuola pubblica italiana, sottoponiamo all’attenzione del Garante le seguenti circostanze, riguardanti il trattamento dei dati associati al nuovo indicatore di fragilità predisposto dall’INVALSI. Riteniamo infatti che classificare gli esiti dei test INVALSI in termini di fragilità individuale, in funzione di un punteggio conseguito algoritmicamente, si configuri come una schedatura impropria in quanto non controllabile, non verificabile né revisionabile per via umana, ovvero non automatizzata.

L’Istituto Nazionale di Valutazione del Sistema di Istruzione, INVALSI, è Titolare del Trattamento e Responsabile della Protezione dei dati: INVALSI con sede in via Ippolito Nievo, n. 35 – CAP 00153 – Roma – C.F.: 920000450582 – Tel. (+39) 06 941851 – fax (+39) 06 94185215 – e-mail: gdpr@invalsi.it. Il Responsabile per la protezione dei dati (o anche “Data Protection Officer” – DPO) nominato da INVALSI è reperibile al seguente indirizzo di posta elettronica: dpo@invalsi.it.

A partire dal 2022, l’INVALSI fornisce a tutte le istituzioni scolastiche un nuovo indicatore individuale, denominato di fragilità, allo scopo di “identificare studenti in condizione di fragilità” in ottica “preventiva, per riconoscere gli alunni che manifestano segnali relativi a potenziali situazioni di disagio, fragilità e abbandono” (1). Tale indicatore è attualmente impiegato come strumento di policy nell’ambito delle azioni previste dal PNRR per la riduzione dei divari territoriali (2). Gli elenchi dei codici identificativi degli studenti “fragili” passano dai database INVALSI alle segreterie scolastiche, che tramite le piattaforme dei registri elettronici (3) associano i rispettivi nomi e cognomi. Agli elenchi in chiaro hanno accesso dirigente e docenti, che possono individuare gli studenti destinati ad attività didattiche differenziate (4), grazie ai finanziamenti destinati alla “lotta alla dispersione scolastica” (5).

Osserviamo quanto segue.

  1. L’attribuzione dei punteggi INVALSI di tutti gli studenti italiani, esclusi i bambini di 7 e 10 anni, che svolgono un test cartaceo, avviene in maniera algoritmica. Le batterie di test sono computerizzate.
  2. La banca dei quesiti INVALSI non è pubblica. Il processo di test assembly non è noto. La compilazione dei test non è replicabile da parte dello studente o del genitore interessato.
  3. La correzione delle domande è gestita in maniera centralizzata. Non sono noti i soggetti che se ne occupano: chi sono i “gruppi di correttori”, gli “assistenti alla codifica” i “table leader” abilitati dall’INVALSI? (6). Non sono note le procedure impiegate né il margine di errore associato alle correzioni. L’emissione dei risultati (livelli) non è verificabile dallo studente che li acquisisce.
  4. Le soglie con cui INVALSI definisce la distinzione algoritmica tra i vari livelli, ovvero la distinzione tra fragili e non fragili, non sono note né ricavabili dalla documentazione istituzionale. Anche il margine di errore statistico di attribuzione dei punteggi non è noto.
  5. Non esistono standard “di competenze” fissati normativamente nel nostro ordinamento, fatta eccezione per i quadri di certificazione linguistica, importati da quelli internazionali. Non esiste alcuna definizione né regolamentazione di quali siano le competenze minime misurabili (7).
  6. L’ informativa dell’INVALSI “in relazione al trattamento dei dati degli studenti ai fini della rilevazione degli apprendimenti” (8) non menziona l’indicatore predittivo di fragilità, non esplicita le finalità, le modalità di trattamento, di diffusione e conservazione delle informazioni contenute in tale indicatore.
  7. Non risultano disciplinati il diritto alla cancellazione, quello di revoca del consenso, il diritto di opposizione al trattamento da parte di chi è, o potrebbe, essere classificato come fragile.
  8. Non risulta nota la stima del livello di rischio associato al trattamento dei dati relativi all’indicatore di fragilità.
  9. Non è possibile, da parte dello studente, esercitare il diritto alla spiegazione e al controllo (articolo 71 GDPR, oltre che articoli da 13 a 15 e 22), ovvero il diritto concreto di ottenere informazioni significative e comprensibili su come il suo punteggio INVALSI sia stato acquisito, chi è responsabile delle correzioni e quali conseguenze comporta il trattamento dei dati di fragilità.
  10. Non risulta possibile una revisione umana del processo di attribuzione del punteggio, e dunque dell’esito della classificazione di fragilità.

Riteniamo pertanto che il nuovo indicatore di fragilità individuale elaborato dall’INVALSI, il suo impiego come strumento di policy e la diffusione/pubblicizzazione degli elenchi degli studenti fragili si configurino come una schedatura individuale impropria, oltre che come una distorsione dagli scopi istituzionali dell’Istituto di Valutazione.

Tutto ciò premesso, i sottoscritti

CHIEDONO

al Garante per la protezione dei dati personali, esaminato il reclamo che precede e ritenutane la fondatezza, di assumere nei confronti di INVALSI ogni opportuno provvedimento e, in particolare, di imporre il divieto di estrazione e di trattamento dei dati “di fragilità” individuale.

Le associazioni firmatarie:

Associazione ROARS

Associazione ALaS

Federazione dei Lavoratori della Conoscenza FLC CGIL

USB Scuola

Unicobas Scuola

CUB SUR Scuola

Organizzazione Studenti OSA

Cobas Torino

Cobas Sardegna

Cobas Tuscia

Cobas Terni

Cobas AUTOCONVOCATI

Partito delle Rifondazione Comunista/scuola

Priorità alla Scuola

Ass. Cattive Ragazze

Centro Studi per la Scuola Pubblica CESP Padova

Redazione Professione Docente

Associazione La Nostra Scuola Agorà 33

Associazione Per la Scuola della Repubblica

Associazione Nazionale Docenti AND ♲ poliversity.it/@mcp/1120815397…

0
noyb fa causa a CRIF e AZ Direct per trattamento illegale e segreto dei dati

noyb fa causa a CRIF e AZ Direct per trattamento illegale e segreto dei dati

@noybeu ha intentato una causa contro l'agenzia di riferimento del credito CRIF GmbH e il rivenditore di indirizzi AZ Direct. Le aziende scambiano segretamente i dati degli indirizzi di quasi tutti gli adulti in Austria.

In questo modo CRIF ottiene informazioni che sono state effettivamente raccolte a fini pubblicitari, al fine di calcolare la solvibilità. Come confermato in due decisioni dall’autorità austriaca per la protezione dei dati , ciò viola il #GDPR. noyb ora, tra le altre cose, sta facendo causa per provvedimenti ingiuntivi e danni.

@privacypride

noyb.eu/en/noyb-sues-crif-and-…

0
La stupidità al vertice dell'Europa genera mostri. E farebbe anche ridere, se non fosse drammatica... L'intervista di Andreas Ericson a Ylva Johansson su chatcontrol

La stupidità al vertice dell'Europa genera mostri. E farebbe anche ridere, se non fosse drammatica... L'intervista di Andreas Ericson a Ylva Johansson su chatcontrol

[Andreas Ericson] Posso chiederti solo una cosa, Ylva. Se ciò accadesse, ai sensi di questo disegno di legge, tu ed io potremmo avere contatti in futuro, se, ad esempio, ritieni di voler denunciare la Commissione europea e contattare Svenska Dagbladet protetti dalle leggi sulla protezione delle fonti? E con questo disegno di legge potremmo anche avere contatti crittografati che le autorità non sono in grado di leggere?

> [Ylva Johansson] Sì, è ovvio.

[Andreas Ericson] Ma se così fosse, i pedofili non utilizzerebbero tutti quanti gli stessi strumenti criptati? E quindi, cosa ci avremmo guadagnato?

> [Ylva Johansson] No, ma il fatto è che... (pausa) l'unica cosa è che... (pausa) l'abuso sessuale sui bambini, le immagini del genere, sono sempre criminali

\#chatcontrol #stopchatcontrol

@privacypride

L'intervista è visibile su Twitter

0
ChatControl: [la pedopornografia non si batte con la sorveglianza di massa](https://fedd.it/chatcontrol001)

ChatControl: la pedopornografia non si batte con la sorveglianza di massa ----------

La proposta di legge Ue Child Sexual Abuse Regulation nota come ChatControl ha il nobile intento di lottare contro la pedopornografia, ma lo fa esaminando i contenuti di tutti i messaggi e le foto private scambiate tra utenti sulle piattaforme di messaggistica. Una misura sproporzionata, oltre che potenzialmente inefficace

@privacypride

L'articolo di @vbertola Patrizia #Felettig @quinta e @iusondemand è stato pubblicato qui su Agenda Digitale

1
Voto sul chatcontrol rinviato: enorme successo in difesa della privacy digitale della corrispondenza!

Voto sul chatcontrol rinviato: enorme successo in difesa della privacy digitale della corrispondenza!

La votazione per il regolamento #CSAR aka #Chatcontrol è stata ancora una volta posticipata. Gli stati🇪🇺 non hanno trovato un accordo che consenta di avere la maggioranza. 🇮🇹 non pervenuta nel dibattito.

@privacypride

(grazie a @pietrobiase per la segnalazione)

pirati.io/2023/10/voto-sul-con…

0
Quando date il consenso per il trattamento dei vostri dati genetici, pensate anche a questo importantissimo problema che può derivare da un eventuale data breach

Quando date il consenso per il trattamento dei vostri dati genetici, pensate anche a questo importantissimo problema che può derivare da un eventuale data breach

> il problema delle basi dati contenenti materiale genetico, soprattutto quelle che come in questo caso riguardano in particolare tipo di persona, è che lo sono anche per genitori, figli, fratelli e parenti che non hanno mai dato il consenso per il trattamento di quei dati ma I cui dati genetici parziali sono facilmente individuabili dal confronto con i consanguinei

@eticadigitalemastodon.uno/@informapirata/11…

0
Domani a Milano, in Piazza Leonardo da Vinci, c'è depreDATI, l'evento rivolto a tutti i "non-specialisti", "non-geek", "non-maghi dell’informatica" che amano la propria privacy nel mondo digitale
  • @_aid_85_ c'è chi ama la privacy (femministe, persone lgbtqi+, sostenitori del diritto all'autodeterminazione, chi si preoccupa dei migranti) ma non lo sa.

    Quanto all'invito, lo condividiamo in toto!

    @quinta @gualdo

  • Domani a Milano, in Piazza Leonardo da Vinci, c'è depreDATI, l'evento rivolto a tutti i "non-specialisti", "non-geek", "non-maghi dell’informatica" che amano la propria privacy nel mondo digitale

    Domani a Milano, in Piazza Leonardo da Vinci, c'è depreDATI, l'evento rivolto a tutti i "non-specialisti", "non-geek", "non-maghi dell’informatica" che amano la propria privacy nel mondo digitale

    @eticadigitale

    Sabato 7 Ottobre, al politecnico di Milano, @quinta e @gualdo terranno #depreDATI, il laboratorio per difendersi dalla sorveglianza online:

    🔐 depredati.eu

    Il laboratorio si rivolge a non specialisti che hanno a cuore la propria privacy e che desiderano sottrarsi alla #profilazione delle Big Tech.

    🔎L’obiettivo è informare sulle finalità anche non commerciali della profilazione; comprendere il grado dell’esposizione e suggerire i comportamenti da seguire, qua l'evento su mobilizon:

    ▶️QUI L'EVENTO SU MOBILIZON ----------

    5
    Finalmente in italiano l'inchiesta di Giacomo Zandonini che fa tremare la Commissione Europea «Il pericolo della “porta sul retro” imposta dal regolamento europeo anti-pedopornografia»

    Finalmente in italiano l'inchiesta di Giacomo Zandonini che fa tremare la Commissione Europea «Il pericolo della “porta sul retro” imposta dal regolamento europeo anti-pedopornografia»

    @privacypride

    Proposto dalla Commissaria Ue Johansson, rischia di mettere fine alla sicurezza delle comunicazioni private. Lo dicono gli esperti, mentre la Commissione minimizza. E si fa consigliare da società e enti non profit della Silicon Valley

    > Gli appetiti dei privati – profit e non profit – sui sistemi di detection delle immagini, l’approccio “lasco” agli ordini di ricerca e le richieste aggiuntive di Europol in termini di possibilità d’indagine sono alcune delle rappresentazioni concrete del Rubicone da non varcare citato dal Garante europeo Wojciech Wiewiórowski: costringere ogni app, sito o piattaforma a mantenere una “porta sul retro” espone chiunque al rischio di essere spiato all’interno di una piazza virtuale, sia da agenti, sia da criminali. Mentre la Commissaria Johansson e la rete di lobby con cui ha stretto rapporti nell’ultimo biennio spingono per chiudere l’iter legislativo al più presto, con la fine dell’estate i negoziati sembrano bloccati.

    IRPIMEDIA È GRATUITO - Ogni donazione è indispensabile per lo sviluppo di IrpiMedia

    \#chatcontrol #stopchatcontrol

    0
    Le fakenews della commissaria agli affari interni Ylva Johansson su chatcontrol nella newsletter di Privacy Chronicles di Matteo Navacci

    Le fakenews della commissaria agli affari interni Ylva Johansson su chatcontrol nella newsletter di Privacy Chronicles di Matteo Navacci

    @privacypride

    > "nessuno ci ha ancora spiegato in che modo un regime di sorveglianza di massa totalitario sulle comunicazioni (chat, email, ecc.) di 500 milioni di persone possa in qualche modo evitare che un bambino venga violentato nella sua stanzetta"

    Sei sicuro di volerlo sapere?

    <details class="spoiler"><summary>Clicca per aprire/chiudere</summary>Forse inoculando un malware "buono" nei dispositivi di acquisizione audio e video presenti in ogni cameretta di ogni bimbo? 🙄</details>

    La newsletter completa

    0
    Un brillante pezzo di Carlo Blengino sulla stupidissima intelligenza delle smart city
  • @gelato_al_pollo nah... Blengino non è un Gramellini qualsiasi che fonda le proprie riflessioni su aneddoti non verificati

    @AAMfP @sandropisano @maiuz @lanternaverde

  • Il Regolamento chatcontrol è diventato la "legge più criticata di tutti i tempi": ecco perché i piani di scansione CSAM dell'UE devono fallire

    Il Regolamento chatcontrol è diventato la "legge più criticata di tutti i tempi": ecco perché i piani di scansione CSAM dell'UE devono fallire

    @privacypride

    Riportiamo la severa presa di posizione di @Tutanota contro il regolamento #chatcontrol

    Il Consiglio degli Stati membri dell'UE ha rinviato il voto finale sul regolamento sugli abusi sessuali sui minori (CSAR), previsto per il 28 settembre, alla fine di ottobre, poiché il disaccordo e le critiche alla legge continuano. Questo è un grande segno che il regolamento, soprannominato anche controllo delle chat e una delle leggi europee più criticate di sempre, potrebbe fallire. La lotta sul controllo delle chat continua tra gli Stati membri dell'UE: un piccolo gruppo di Paesi - Germania, Austria, Paesi Bassi, Polonia, Svezia, Estonia e Slovenia - si oppone all'attuale bozza del regolamento CSA dell'UE. I politici tedeschi hanno già detto che non ci sono procedimenti penali ad ogni costo, una chiara dichiarazione contro i piani dell'UE per la scansione lato client che comprometterebbe la crittografia.

    Questo arriva in un momento molto importante, dato che il Regno Unito ha appena approvato la legge sulla sicurezza online, il cosiddetto "libro dei sogni dei dittatori". Mentre ora è teoricamente possibile per il Regno Unito minare la crittografia, l'UE ha ancora la possibilità di adottare un approccio più favorevole alla privacy quando si tratta di salvaguardare il web.

    La Germania si oppone al controllo delle chat ----------

    La Germania ha chiesto di rinviare il voto, come nella sessione precedente, sostenuta dall'Austria. Il lavoro non sarebbe ancora finito, le misure contenute nel testo attuale sono sproporzionate e illegali e devono essere modificate.

    All'inizio di quest'anno gli esperti legali del Servizio scientifico del Parlamento europeo hanno concluso in uno studio sulla legalità del controllo delle chat:

    > "soppesando i diritti fondamentali interessati dalle misure della proposta CSA, si può stabilire che la proposta CSA violerebbe gli articoli 7 e 8 della Carta dei diritti fondamentali per quanto riguarda gli utenti".

    Secondo i servizi legali dell'UE, le parti della proposta CSAR sul controllo delle chat tramite scansione lato client sono sproporzionate e contrarie ai diritti fondamentali. Il regolamento CSA dell'UE è illegale ai sensi del diritto dell'UE.

    Il Consiglio è diviso ----------

    Inoltre, Polonia, Paesi Bassi e Svezia hanno chiesto di modificare il testo della legge. Altri nove Stati hanno chiesto che la posizione comune venga adottata al più presto. La loro argomentazione: nei negoziati a tre con la Commissione e il Parlamento europeo, gli Stati dovranno comunque scendere a compromessi.

    Ma dall'inizio dei dibattiti, 18 mesi fa, gli obblighi di sorveglianza come la scansione lato client, il controllo delle chat e gli aspetti di crittografia - punti chiave del progetto di legge - sono particolarmente controversi tra gli Stati membri dell'UE.

    La Svezia vede "problemi con l'integrità e la certezza giuridica della proposta", mentre la Polonia ha definito tutto "molto complicato", affermando che il regolamento CSA non è ancora "riuscito a trovare il giusto equilibrio tra protezione dei minori e protezione dei dati".

    La Polonia ha chiesto che vengano scansionate solo le chat di "persone concretamente sospette" e non quelle di cittadini innocenti.

    Diversi Stati criticano altre disposizioni in quanto sproporzionate. I Paesi Bassi e la Germania vogliono esentare la telefonia audio, mentre la Svezia vuole esentare le comunicazioni su reti mobili. Svezia e Paesi Bassi vogliono limitare la scansione al materiale abusivo noto ed esentare il materiale sconosciuto e il grooming.

    Questo dimostra quanto gli Stati membri dell'UE siano ancora divisi e quanto sia controverso il controllo delle chat, una delle leggi europee più criticate di tutti i tempi.

    Dichiarazioni contrastanti della Commissione UE ----------

    La Commissione europea, tuttavia, respinge le argomentazioni degli oppositori e sostiene che è possibile proteggere e scansionare le chat allo stesso tempo - senza tuttavia fornire alcuna prova su come ciò dovrebbe essere fatto.

    Allo stesso tempo, un'altra formulazione all'interno della proposta di legge chiarisce che il controllo delle chat è uno strumento di sorveglianza: I servizi di comunicazione non pubblici devono essere esentati, ad esempio se sono "utilizzati per scopi di sicurezza nazionale", per proteggere "le informazioni riservate, comprese quelle classificate". Gli Stati non vogliono il controllo delle chat per le proprie comunicazioni per evitare la sorveglianza.

    Decisione rinviata ----------

    Mentre la Commissione europea sta facendo pressione sugli Stati per giungere a una decisione finale, è diventato evidente che non esiste una maggioranza qualificata per l'attuale proposta. Di conseguenza, il voto sul CSAR è stato rinviato in seno al Consiglio.

    Ciò non sorprende, poiché nessun'altra legge dell'UE è stata criticata quanto il CSAR (bozza trapelata della Presidenza spagnola).

    Critiche al controllo delle chat ----------

    1. Il controllo delle chat può essere illegale

    Il problema centrale del CSAR è il seguente: scansionare in massa le comunicazioni di persone insospettabili senza motivo è sproporzionato e contrario ai diritti fondamentali.

    Nel maggio dello scorso anno, la Commissione europea ha proposto di introdurre requisiti obbligatori per tutti i servizi di chat, messaggistica e posta elettronica, anche quando forniscono una crittografia Ende-zu-Ende, per scansionare i messaggi alla ricerca di materiale illegale relativo ad abusi sessuali su minori (CSAM). Dopo la loro pubblicazione, le misure proposte sono state criticate in tutta Europa perché potrebbero portare a una "sorveglianza permanente di tutte le comunicazioni interpersonali".

    La Carta dei diritti fondamentali dell'UE garantisce il diritto alla privacy per tutte le persone che vivono nell'Unione europea. Di conseguenza, i consulenti legali dell'UE hanno concluso che le proposte europee di controllo delle chat, che richiederebbero alle aziende tecnologiche di scansionare i messaggi privati e criptati alla ricerca di materiale pedopornografico (CSAM), violano il diritto dell'UE.

    La controversa legge dell'UE consentirà ai governi di inviare "ordini di rilevamento" alle aziende tecnologiche, imponendo loro di scansionare i messaggi privati e le e-mail alla ricerca di "indicatori di abusi su minori". Ciò potrebbe compromettere le comunicazioni criptate e viene criticato dagli esperti di sicurezza e dai sostenitori della privacy come una sorveglianza di massa generale e indiscriminata. Inoltre, bisogna ricordare che la Corte costituzionale federale tedesca ha persino dichiarato illegale la conservazione dei dati in Germania perché "sproporzionata".

    È molto probabile che il regolamento CSA - se dovesse diventare legge - venga dichiarato illegale anche dalla Corte di giustizia europea (CGE). L'obbligo per aziende come WhatsApp, Signal e altre di analizzare ogni messaggio - anche se criptato - alla ricerca di materiale pedopornografico viola il diritto alla privacy delle persone, in contrasto con la Carta dei diritti fondamentali dell'UE.

    Mentre le aziende tecnologiche si sono opposte senza successo a proposte simili nel Regno Unito nel disegno di legge sulla sicurezza online appena approvato, compreso il controverso requisito di scansionare il materiale pedopornografico una volta che esista una "tecnologia fattibile", sembra piuttosto improbabile che qualcosa di simile venga approvato nell'UE, data la grande resistenza, anche tra gli Stati membri dell'UE, ma ancora di più tra i parlamentari europei.

    2. Forte lobbying da parte delle aziende di IA

    Nel settembre 2023 è stata pubblicata una nuova ricerca che getta una luce molto diversa sul controllo delle chat - e su chi trarrebbe davvero vantaggio se tutti gli europei fossero monitorati 24 ore su 24, 7 giorni su 7, su Internet.

    Oltre ad Ashton Kutcher e alla sua organizzazione Thorn, un lungo elenco di organizzazioni, aziende di IA e forze dell'ordine sta facendo pressione a Bruxelles a favore del controllo delle chat. La ricerca, ad esempio, rivela che WeProtect Global Alliance è un'istituzione affiliata al governo, strettamente legata all'ex diplomatico Douglas Griffiths e alla sua Oak Foundation. Quest'ultima ha investito più di 24 milioni di dollari USA in attività di lobbying per il controllo delle chat dal 2019, ad esempio attraverso la rete Ecpat, l'organizzazione Brave e l'agenzia di PR Purpose.

    La ricerca "conferma i nostri peggiori timori", ha dichiarato Diego Naranjo, responsabile delle politiche dell'organizzazione per i diritti civili European Digital Rights (EDRi). "La legge europea sulla tecnologia più criticata dell'ultimo decennio è il prodotto di un'attività di lobbying da parte di aziende private e forze dell'ordine"."Il commissario dell'UE, Ylva Johansson, ha ignorato "la scienza e la società civile" e ha proposto una legge per "legalizzare la sorveglianza di massa e rompere la crittografia", ha detto. "La protezione dei minori viene qui abusata come porta aperta per un'infrastruttura di sorveglianza di massa senza alcuna ragione", denuncia Konstantin Macher dell'associazione per la protezione dei dati Digitalcourage.

    3. La Germania è contraria alla proposta

    La Germania è il più forte oppositore dell'attuale progetto CSAR - e a ragione. La Germania ha un passato di difesa del diritto alla privacy, non da ultimo a causa della sua storia di sorveglianza di massa durante i sistemi repressivi della Repubblica Democratica Tedesca (DDR) e durante la Seconda Guerra Mondiale.

    Oggi, i politici tedeschi affermano: "Non c'è alcun procedimento giudiziario ad ogni costo": Il diritto alla privacy è un diritto umano importante, a cui non dobbiamo rinunciare.

    4. La legge dell'UE più criticata di sempre

    Secondo l'organizzazione no-profit EDRi, "un'ampia gamma di soggetti interessati senza precedenti ha sollevato preoccupazioni sul fatto che, nonostante i suoi importanti obiettivi, le misure proposte nella bozza di regolamento UE sugli abusi sessuali sui minori sono fondamentalmente incompatibili con i diritti umani".

    EDRi ha pubblicato un'impressionante raccolta di 69 voci contrarie provenienti da politici dell'UE, Stati membri dell'UE, aziende tecnologiche e persino esperti di protezione dell'infanzia che spiegano perché il controllo delle chat deve fallire.

    Ha inoltre pubblicato una lettera aperta firmata da oltre 80 ONG che si aggiunge alla voce di quasi 500 scienziati che spiegano perché dobbiamo lottare per la privacy in Europa.

    Non importa quanto i politici cerchino di convincere l'opinione pubblica: La scansione dei nostri messaggi privati alla ricerca di materiale pedopornografico è una sorveglianza di massa. Non dobbiamo mai permetterlo.

    Tutanota non accetta il controllo delle chat ----------

    Noi di Tutanota siamo combattenti per la libertà: Siamo all'avanguardia nella rivoluzione della privacy offrendo a tutti nel mondo un account di posta elettronica privato.

    Se il regolamento CSA dovesse andare avanti nella sua forma attuale, saremmo disposti a difendere il diritto alla privacy in tribunale, come abbiamo già fatto in Germania.

    Mettiamo la vostra privacy e sicurezza al primo posto, il nostro codice per la crittografia automatica Ende-zu-Ende di Tutanota è pubblicamente disponibile come open source. Non comprometteremo mai la nostra promessa di privacy o la nostra crittografia.

    La nostra posizione rimane ferma: faremo tutto il necessario per garantire il vostro diritto alla privacy.

    QUI IL POST ORIGINALE ----------

    0
    Dichiarazione congiunta di scienziati e ricercatori sulla proposta di regolamento sugli abusi sessuale infantili proposta dall'UE: 4 luglio 2023

    Dichiarazione congiunta di scienziati e ricercatori sulla proposta di regolamento sugli abusi sessuale infantili proposta dall'UE: 4 luglio 2023

    @privacypride

    Cari deputati al Parlamento europeo,

    Cari Stati membri del Consiglio dell’Unione europea,

    I firmatari di questa dichiarazione sono scienziati e ricercatori di tutto il mondo.

    Innanzitutto, riconosciamo che l’abuso e lo sfruttamento sessuale dei minori è un crimine molto grave che può causare danni permanenti ai sopravvissuti. È responsabilità delle autorità governative, con il sostegno delle aziende e delle comunità, intraprendere interventi efficaci per prevenire questo crimine e reagire rapidamente quando si verifica.

    La Commissione europea ha proposto una legge con l'obiettivo dichiarato di fermare la diffusione online di materiale pedopornografico e l'adescamento online di minori. Per fare ciò, la legge consente alle autorità di obbligare i fornitori di app o altri servizi online a scansionare messaggi, immagini, e-mail, messaggi vocali e altre attività dei propri utenti. Nel caso delle app crittografate end-to-end, l’affermazione è che questa scansione può essere eseguita sui dispositivi degli utenti – la cosiddetta “scansione lato client” (CSS).

    L'efficacia della legge (nei suoi obiettivi dichiarati) dipende dall'esistenza di tecnologie di scansione efficaci. Sfortunatamente, le tecnologie di scansione attualmente esistenti e all’orizzonte sono profondamente imperfette. Questi difetti, che descriviamo in dettaglio di seguito, significano che la scansione è destinata a essere inefficace. Inoltre, l’integrazione della scansione su larga scala nelle app in esecuzione sui dispositivi degli utenti, e in particolare in un contesto globale, crea effetti collaterali che possono essere estremamente dannosi per tutti coloro che sono online e che potrebbero rendere Internet e la società digitale meno sicuri per tutti.

    Poiché i problemi che descriviamo riguardano misure che sono al centro della proposta legislativa dell’UE, la nostra raccomandazione professionale come scienziati è che tale proposta non venga portata avanti. Non è fattibile né sostenibile richiedere alle aziende private di utilizzare le tecnologie in modi che già sappiamo non possono essere fatti in modo sicuro – o addirittura non possono essere fatti affatto. Data la natura orribile dell’abuso sessuale sui minori, è comprensibile, e in effetti allettante, sperare che esista un intervento tecnologico in grado di sradicarlo. Tuttavia, guardando la questione in modo olistico, non possiamo sfuggire alla conclusione che l’attuale proposta non è un intervento di questo tipo.

    L’approvazione di questa legislazione mina il lavoro ponderato e incisivo che i ricercatori europei hanno svolto nel campo della sicurezza informatica e della privacy, compresi i contributi allo sviluppo di standard di crittografia globali. Tale indebolimento indebolirà l’ambiente per il lavoro sulla sicurezza e sulla privacy in Europa, riducendo la nostra capacità di costruire una società digitale sicura.

    Il regolamento proposto costituirebbe inoltre un precedente globale per il filtraggio di Internet, il controllo di chi può accedervi e l’eliminazione di alcuni dei pochi strumenti a disposizione delle persone per proteggere il proprio diritto alla vita privata nello spazio digitale. Ciò avrà un effetto dissuasivo sulla società e probabilmente influenzerà negativamente le democrazie di tutto il mondo.

    Mettiamo quindi fortemente in guardia dal perseguire queste o misure simili poiché il loro successo non è possibile data la tecnologia attuale e prevedibile, mentre il loro potenziale danno è sostanziale.

    1. Le tecnologie di rilevamento sono profondamente imperfette e vulnerabili agli attacchi

    Gli strumenti utilizzati per la scansione di materiale pedopornografico noto (CSAM) non devono contenere materiale pedopornografico stesso poiché ciò comporterebbe gravi rischi. Pertanto, l'unica tecnologia scalabile per affrontare questo problema consiste nel trasformare il contenuto noto con una cosiddetta funzione hash percettiva e nell'utilizzare un elenco dei valori hash risultanti da confrontare con potenziale materiale CSAM. Una funzione hash percettiva deve raggiungere due obiettivi: (i) dovrebbe essere facile da calcolare ma difficile da invertire e (ii) piccole modifiche a un'immagine dovrebbero comportare piccole modifiche all'output hash, il che significa che anche dopo la manipolazione dell'immagine la l'immagine conosciuta può ancora essere rilevata. Anche se sembra facile, dopo più di due decenni di ricerca non sono stati compiuti progressi sostanziali nella progettazione di funzioni che soddisfino queste proprietà.

    La ricerca ha dimostrato che per tutte le funzioni hash percettive conosciute, è praticamente sempre possibile apportare piccole modifiche a un'immagine che si traducono in un grande cambiamento del valore hash che consente l'evasione del rilevamento (falso negativo). Inoltre, è anche possibile creare un'immagine legittima che verrà erroneamente rilevata come materiale illegale in quanto ha lo stesso hash di un'immagine presente nel database (falso positivo). Ciò può essere ottenuto anche senza conoscere il database hash. Un simile attacco potrebbe essere utilizzato per incastrare utenti innocenti e inondare le forze dell’ordine di falsi positivi, distogliendo risorse dalle vere indagini sugli abusi sessuali sui minori.

    Questi attacchi non sono teorici: per progetti concreti come Photo DNA, la funzione hash PDQ di Facebook e la funzione NeuralHash di Apple, in letteratura sono stati descritti attacchi efficienti.

    Per il momento l’unico modo per evitare tali attacchi è mantenere segreta la descrizione della funzione hash percettiva. Questa “sicurezza tramite oscurità” non solo va contro i principi di base dell’ingegneria della sicurezza ma, in pratica, è fattibile solo se la funzione hash percettiva è nota solo al fornitore di servizi. Nel caso della crittografia end-to-end, l'operazione di hashing deve avvenire sul dispositivo client. Pertanto, mantenere segreto il design è un’illusione.

    Come scienziati, non ci aspettiamo che nei prossimi 10-20 anni sia fattibile sviluppare una soluzione scalabile che possa funzionare sui dispositivi degli utenti senza fuga di informazioni illegali e che possa rilevare contenuti noti (o contenuti derivati da o correlati a contenuti noti) contenuto) in modo affidabile, cioè con un numero accettabile di falsi positivi e negativi.

    La proposta della Commissione Europea va oltre l'individuazione dei contenuti conosciuti. Richiede inoltre che le immagini o i video appena generati con materiale pedopornografico debbano essere rilevati sulla base di strumenti di “intelligenza artificiale”. Inoltre, la proposta prevede che l'adescamento nei servizi di comunicazione, comprendenti sia testo che audio, venga rilevato utilizzando tecniche simili. Sebbene alcuni attori commerciali affermino di aver fatto progressi, i progetti rimangono segreti e non è stata effettuata alcuna valutazione aperta e obiettiva che ne dimostri l’efficacia. Inoltre, lo stato dell’arte dell’apprendimento automatico suggerisce che ciò va ben oltre ciò che è fattibile oggi. In effetti, ogni volta che i progetti lato client sono stati valutati (come nel caso dei prototipi finanziati dal Ministero degli Interni del Regno Unito) si sono rivelati né efficaci né conformi alle leggi sulla privacy e sui diritti umani.

    Gli strumenti di intelligenza artificiale possono essere addestrati per identificare determinati modelli con elevati livelli di precisione. Tuttavia, commettono regolarmente errori, compresi errori che a un essere umano sembrano molto elementari. Questo perché i sistemi di intelligenza artificiale mancano di contesto e buon senso. Ci sono alcuni compiti per i quali i sistemi di intelligenza artificiale sono adatti, ma la ricerca di un crimine molto sfumato e delicato – che è ciò che è il comportamento di adescamento – non è uno di questi compiti.

    Considerando la scala con cui le comunicazioni private vengono scambiate online, anche la scansione dei messaggi scambiati nell’UE su un solo fornitore di app significherebbe generare milioni di errori ogni giorno. Ciò significa che durante la scansione di miliardi di immagini, video, testi e messaggi audio al giorno, il numero di falsi positivi sarà di centinaia di milioni. Sembra inoltre probabile che molti di questi falsi positivi siano essi stessi immagini profondamente private, probabilmente intime e del tutto legali inviate tra adulti consenzienti.

    Ciò non può essere migliorato attraverso l’innovazione: i “falsi positivi” (contenuti erroneamente contrassegnati come materiale illegale) sono una certezza statistica quando si tratta di IA. I falsi positivi sono inevitabili anche quando si tratta dell'uso di tecnologie di rilevamento, anche per materiale CSAM noto. L'unico modo per ridurre questo margine di errore a un margine di errore accettabile sarebbe quello di eseguire la scansione solo in circostanze ristrette e realmente mirate in cui vi sia un sospetto preliminare, nonché risorse umane sufficienti per gestire i falsi positivi, altrimenti i costi potrebbero essere proibitivi data la un gran numero di persone che saranno necessarie per rivedere milioni di testi e immagini. Questo non è quanto previsto dalla proposta della Commissione Europea.

    Il sistema di segnalazione proposto nel progetto di proposta CSAM potrebbe incoraggiare nuovi attacchi alle tecnologie di rilevamento. Questo perché in questo momento i fornitori hanno la facoltà di eliminare i falsi allarmi evidenti. Con il nuovo sistema, tuttavia, sarebbero tenuti a segnalare anche i contenuti che sembrano improbabili essere di materiale pedopornografico. Oltre agli attacchi di cui abbiamo parlato, molti altri stanno iniziando ad apparire in sedi accademiche specializzate, e ci aspettiamo che molti altri vengano preparati da coloro che sono motivati a condividere materiale illecito.

    Infine, è stato affermato che il rilevamento di materiale pedopornografico dovrebbe essere fattibile poiché la scansione dei virus informatici è una tecnologia ampiamente utilizzata. Sebbene superficialmente entrambi sembrino simili, ci sono differenze essenziali. Innanzitutto, quando viene rilevato un virus informatico, l'utente viene avvisato e il virus può essere rimosso. In secondo luogo, un virus può essere riconosciuto sulla base di una piccola sottostringa univoca, cosa che non è il caso di un'immagine o di un video: sarebbe molto semplice modificare o rimuovere una sottostringa univoca con piccole modifiche che non ne alterano l'aspetto; farlo per un virus renderebbe il codice inutilizzabile. Infine, le tecniche di machine learning possono talvolta identificare il comportamento virale, ma solo quando tale comportamento può essere definito con precisione (ad esempio codice che copia se stesso) e quindi rilevato. Ciò è in contrasto con la definizione di CSAM per la quale non è facile stabilire confini chiari.

    1. Implicazioni tecniche dell'indebolimento della crittografia end-to-end

    La crittografia end-to-end è progettata in modo tale che solo il mittente e il destinatario possano visualizzare il contenuto di un messaggio o di un'altra comunicazione. La crittografia è l’unico strumento di cui disponiamo per proteggere i nostri dati nel regno digitale; UN

    È stato dimostrato che tutti gli altri strumenti sono compromessi. L'utilizzo della crittografia dei collegamenti (da utente a fornitore di servizi e da fornitore di servizi a utente) con la decrittografia nel mezzo, come avviene nel sistema di telefonia mobile, non è una soluzione accettabile nell'attuale contesto di minacce. È ovvio che la crittografia end-to-end rende impossibile implementare la scansione di contenuti noti o nuovi e il rilevamento di adescamenti presso il fornitore di servizi.

    Per rimediare a questo, è stata suggerita una serie di tecniche chiamate “Client-Side Scanning” (CSS) come un modo per accedere alle comunicazioni crittografate senza violare la crittografia. Secondo quanto riferito, tali strumenti funzionerebbero scansionando il contenuto sul dispositivo dell’utente prima che sia stato crittografato o dopo che sia stato decrittografato, quindi segnalando ogni volta che viene trovato materiale illecito. Si potrebbe equiparare questo all’aggiunta di videocamere nelle nostre case per ascoltare ogni conversazione e inviare segnalazioni quando parliamo di argomenti illeciti.

    L’unica implementazione dei CSS nel mondo libero è stata quella di Apple nel 2021, che secondo loro era una tecnologia all’avanguardia. Questo tentativo è stato ritirato dopo meno di due settimane a causa di problemi di privacy e del fatto che il sistema era già stato dirottato e manipolato.

    Quando distribuiti sul dispositivo di una persona, i CSS agiscono come uno spyware, consentendo agli avversari di accedere facilmente a quel dispositivo. Qualsiasi legge che imponga i CSS, o qualsiasi altra tecnologia progettata per accedere, analizzare o condividere il contenuto delle comunicazioni, senza dubbio minerà la crittografia e di conseguenza renderà le comunicazioni di tutti meno sicure. Il lodevole obiettivo di proteggere i bambini non cambia questa realtà tecnica.

    Anche se un simile sistema CSS potesse essere concepito, il rischio che se ne abusi è estremamente elevato. Ci aspettiamo che ci sia una pressione sostanziale sui politici affinché estendano il campo di applicazione, prima per individuare il reclutamento di terroristi, poi altre attività criminali, quindi i discorsi dissidenti. Ad esempio, sarebbe sufficiente che i governi meno democratici estendessero il database dei valori hash che tipicamente corrispondono ai contenuti pedopornografici noti (come spiegato sopra) con valori hash dei contenuti critici nei confronti del regime. Poiché i valori hash non forniscono informazioni sul contenuto stesso, sarebbe impossibile per gli estranei rilevare questo abuso. L’infrastruttura CSS potrebbe quindi essere utilizzata per segnalare immediatamente a questi governi tutti gli utenti con questo contenuto.

    Se un tale meccanismo venisse implementato, dovrebbe avvenire in parte attraverso la sicurezza tramite oscurità, altrimenti sarebbe facile per gli utenti aggirare i meccanismi di rilevamento, ad esempio svuotando il database dei valori hash o aggirando alcune verifiche. Ciò significa che verrà danneggiata la trasparenza dell’applicazione, che potrebbe essere utilizzata da alcuni attori come velo per raccogliere più dati personali degli utenti.

    1. Efficacia

    Nutriamo serie riserve sull’efficacia delle tecnologie imposte dal regolamento: gli autori dei reati sarebbero a conoscenza di tali tecnologie e passerebbero a nuove tecniche, servizi e piattaforme per scambiare informazioni CSAM evitando il rilevamento.

    Il regolamento proposto danneggerà la libertà di espressione dei bambini poiché anche le loro conversazioni potrebbero innescare allarmi. Le forze dell’ordine nazionali sul campo si occupano in genere in modo sfumato dei messaggi intimi tra adolescenti entrambi in età da consenso. Queste tecnologie cambiano il rapporto tra gli individui e i loro dispositivi e sarà difficile reintrodurre tali sfumature. Per gli altri utenti, nutriamo grandi preoccupazioni per gli effetti agghiaccianti creati dalla presenza di questi meccanismi di rilevamento.

    Infine, l’enorme numero di falsi positivi che ci si può aspettare richiederà una notevole quantità di risorse e creerà seri rischi per tutti gli utenti di essere identificati in modo errato. Sarebbe meglio spendere queste risorse per adottare altri approcci volti a proteggere i bambini dagli abusi sessuali. Sebbene la maggior parte del lavoro di protezione dell’infanzia debba essere locale, un modo in cui la legislazione comunitaria potrebbe aiutare è utilizzare i poteri esistenti (DMA/DSA) per richiedere ai servizi di social network di rendere più semplice per gli utenti denunciare gli abusi, poiché si tratta di reclami degli utenti piuttosto che di abusi. IA che in pratica portano al rilevamento di nuovo materiale abusivo.

    0
    Lo sapete che oltre 300 ricercatori ed esperti in materia di sicurezza affermano che le misure previste dalla proposta chatcontrol sono deleterie in primo luogo per i minori vittime di abusi?

    Lo sapete che oltre 300 ricercatori ed esperti in materia di sicurezza affermano che le misure previste dalla proposta chatcontrol sono deleterie in primo luogo per i minori vittime di abusi?

    @privacypride

    > In una lettera aperta di inizio luglio, centinaia di studiosi mettono in guardia contro la proposta di regolamento CSA dell'UE, citando effetti collaterali dannosi della scansione su larga scala delle comunicazioni online che avrebbero un effetto dissuasivo sulla società e influenzerebbero negativamente le democrazie.

    Il 4 luglio 2023 è stata inviata una lettera aperta, firmata da oltre 300 studiosi di tutto il mondo ai legislatori dell’UE. La lettera metteva in guardia i decisori contro la proposta di regolamento CSA, citando gli effetti collaterali dannosi della scansione su larga scala delle comunicazioni online che avrebbero un effetto dissuasivo sulla società e influenzerebbero negativamente le democrazie. Il fatto che i legislatori dell’UE procedano con questa legge pericolosa nonostante tali avvertimenti dimostrerà un totale disprezzo per le prove scientifiche.

    Ecco le tre ragioni principali che ricercatori e accademici citano nella lettera per non procedere con questa legge:

    \- Le tecnologie di rilevamento che potrebbero essere utilizzate per scansionare le comunicazioni online sono imperfette e vulnerabili agli attacchi \- Le pericolose implicazioni dell'indebolimento della crittografia end-to-end , che è l'unico strumento di cui disponiamo per proteggere i nostri dati negli spazi digitali \- Seri dubbi sull'efficacia delle tecnologie imposte da questo regolamento, che potrebbero consentire agli autori del reato di eludere il rilevamento e spostarsi su una piattaforma diversa

    Queste preoccupazioni fanno eco a quelle già sollevate da oltre 133 organizzazioni della società civile, organizzazioni per la privacy e i diritti digitali, attori dell'industria tecnologica ed esperti istituzionali dell'UE, inclusi avvocati incaricati di consigliare i governi degli Stati membri dell'UE, la principale autorità europea per la protezione dei dati, lo studio del Parlamento europeo e il comitato di controllo della Commissione europea.

    Leggi l'appello degli studiosi ----------

    0
    Cresce la pressione su Ylva Johansson. Dopo le inchieste giornalistiche sui collegamenti delle lobby nel controllo delle chat, la Commissione Interni del Parlamento europeo pretende chiarimenti

    Cresce la pressione su Ylva Johansson. Dopo le inchieste giornalistiche sui collegamenti delle lobby nel controllo delle chat, la Commissione Interni del Parlamento europeo pretende chiarimenti

    @privacypride

    Riportiamo l'articolo di Markus Reuter e Andre Meister pubblicato il 28 settembre 2023 su Netzpolitik

    La commissione per gli Interni del Parlamento europeo (LIBE) chiede al commissario europeo per gli Interni Ylva Johansson di commentare le inchieste condotte da diversi giornali europei. Lunedì scorso i rapporti hanno rivelato come alcune aziende IT e di intelligenza artificiale, insieme a fondazioni, ONG, autorità di sicurezza e agenzie di pubbliche relazioni, da anni esercitano pressioni per il cosiddetto regolamento chatcontrol e con finanziamenti di diversi milioni di dollari.

    Dalla ricerca è emerso che “un’intera rete di associazioni e organizzazioni di lobby”, finanziata con oltre 20 milioni di euro dalla sola Oak Foundation, mantiene stretti legami, tra gli altri, con la commissaria europea agli Interni Ylva Johansson. I rappresentanti delle organizzazioni hanno preso parte alle riunioni e hanno fornito consulenza al commissario per gli interni. Lei, a sua volta, è stata protagonista di un video promozionale per un'organizzazione di lobby ed è apparsa in una campagna di pubbliche relazioni. Inoltre, uno dei dipendenti di Ylva Johansson è membro di una delle organizzazioni di lobby ed è anche responsabile delle norme di controllo della chat presso l'ufficio del commissario per gli interni.

    “Possibile influenza indebita” ----------

    Nella lettera al Commissario, che pubblichiamo integralmente, i coordinatori della LIBE esprimono la loro “preoccupazione” per i rapporti. I resoconti dei media suggerivano “una possibile influenza indebita nello sviluppo della proposta [ n.d.r.: il regolamento chatcontrol]”.

    Particolarmente preoccupanti sono le accuse secondo cui le soluzioni proposte nella proposta legislativa per combattere il CSAM replicherebbero quelle progettate da questi gruppi e contribuirebbero quindi a promuovere i loro interessi economici, continua la lettera.

    La commissione chiede quindi al commissario europeo per gli affari interni “chiarimenti e spiegazioni” sulle accuse – e chiede una risposta entro una settimana.

    Voto rinviato ----------

    Anche la regolamentazione del controllo delle chat di Johansson sta attraversando un momento difficile nei negoziati del Consiglio dei ministri dell'UE: un piccolo gruppo di stati dell'UE respinge l'attuale testo legale sul controllo delle chat. Dato che il voto previsto per questo mese fallirebbe, la Presidenza spagnola ha rinviato la questione.

    Ecco la lettera (qui il PDF):

    > Data: 28 settembre 2023 > Da: Juan Fernando López Aguilar, commissione LIBE > A: Ylva Johansson, commissaria per gli affari interni > Caro Commissario Johansson, > > Scrivo a nome e su mandato dei coordinatori LIBE per esprimere preoccupazione per le recenti notizie pubblicate negli organi di stampa che presumibilmente indicano un conflitto di interessi riguardo alla proposta di regolamento recante norme per prevenire e combattere gli abusi sessuali sui minori (2022/0155(COD)). > > > > I resoconti dei media menzionati indicano presunti stretti rapporti di lavoro tra la Commissione europea e un’ampia rete di aziende tecnologiche, fondazioni, agenzie di sicurezza e agenzie di pubbliche relazioni, tra cui Thorn e WeProtect Global Alliance, indicando una possibile influenza indebita nella stesura della proposta. > > > > Particolarmente preoccupanti sono le accuse secondo cui le soluzioni previste nella proposta legislativa per combattere il materiale pedopornografico replicherebbero le soluzioni ideate da tali gruppi, contribuendo così a promuovere i loro interessi economici. > > > > Chiedo pertanto gentilmente di ricevere chiarimenti e delucidazioni in merito alle accuse sopra descritte. I coordinatori LIBE apprezzerebbero ricevere una risposta al più presto possibile e idealmente entro e non oltre una settimana dal ricevimento di questa lettera. > > > > Riteniamo che la vostra cooperazione e una reazione tempestiva a questa richiesta andrebbero a vantaggio della trasparenza e della responsabilità, valori che sono al centro delle azioni dell’Unione Europea. > > > > Cordiali saluti, > > > > Juan Fernando López Aguilar > >

    3
    Un brillante pezzo di Carlo Blengino sulla stupidissima intelligenza delle smart city

    Un brillante pezzo di Carlo Blengino sulla stupidissima intelligenza delle smart city

    @privacypride

    > «Ci sono violazioni di legge che hanno un buon profumo, che sanno di umano, e che gli automatismi tecnologici, per quanto “intelligenti”, non capiranno mai.»

    www.ilpost.it/2023/10/02/bleng…

    13
    Regolamento chatcontrol: verso un’insostenibile sorveglianza di massa? La voce agli attivisti di Privacy Pride.

    Regolamento chatcontrol: verso un’insostenibile sorveglianza di massa? La voce agli attivisti di Privacy Pride.

    @privacypride

    I membri del comitato promotore dell’iniziativa di Privacy Pride si sono resi disponibili a rilasciare un’intervista a riguardo, per offrire chiarimenti

    Di Stefano Gazzella su @redhotcyber

    www.redhotcyber.com/post/regol…

    0
    Madre statunitense condannata a due anni di carcere per aver somministrato alla figlia la pillola abortiva
  • @Chamaeleon purtroppo la criminalizzazione di ciò che prima era legale porta molto spesso a comportamenti irrazionali e grotteschi

    @informapirata

  • Stiamo per perdere l’ultimo pilastro della nostra sicurezza digitale? L'articolo di Euronews
  • @paoloredaelli Il problema è il client che conterrà degli scanner locali per l'analisi di testi e contenuti multimediali, ovviamente soggetti a errori, che esporranno alla vista dei dipendenti dei fornitori di servizio e delle forze di polizia, tutte le conversazioni segnalate come sospette

    @informapirata

  • Privacy Pride: il 23 settembre nelle città italiane per rivendicare il diritto alla privacy contro il regolamento europeo CHATCONTROL
  • @Dabliu esatto, ma se pensi che il SSN è sottoposto a un deliberato processo di impoverimento e distruzione e che l'ordine dei medici impiega anni anche solo per decidere se uno stregone ciarlatano è uno stregone ciarlatano, sembrerebbe che l'unico attore in grado di incidere positivamente sulla questione sia, come al solito, l'autorità garante per la protezione dei dati personali...

  • Papà invia foto di suo figlio nudo via Gmail e il suo account Google viene bloccato per sempre: notizia dell'anno scorso, ma fa capire bene le implicazioni del regolamento europeo CHATCONTROL
  • @qwe Sinceramente non mi ricordavo di questo dettaglio che, se confermato, Sarebbe ancora più inquietante. A parziale giustificazione di Google (parziale eh, Google è uno dei più accesi sostenitori di questo tipo di controlli sciagurati), c'è da dire che per un provider di servizi che offre spazio web agli utenti, il fatto che a causa di alcune immagini si rischia il sequestro dei server (e nel caso del Cloud un sequestro dei server può significare un interruzione di servizio su tutti i server Che condividono quel contenuto!), comporta un pericolo estremamente grande per una società abituata a fatturare continuativamente cifre immense...
    Tutto questo però non rende questo tipo di provvedimenti più digeribili: chi se ne frega dell'interesse delle aziende quando vengono messi a rischio i diritti delle persone!

  • Papà invia foto di suo figlio nudo via Gmail e il suo account Google viene bloccato per sempre: notizia dell'anno scorso, ma fa capire bene le implicazioni del regolamento europeo CHATCONTROL
  • @Moonrise2473

    > Da specificare che non ha mandato "foto del figlio nudo" (che potrebbe essere grave

    )

    Tu dici che non è il titolo giusto, ma in realtà quel titolo mette subito il lettore in condizione di pensare che quel padre sia colpevole e in tal modo si capisce il senso di #chatcontrol: tu mandi un messaggio che credi essere riservato e il sistema lo intercetta senza mandato di alcun magistrato, lo interpreta come un messaggio CSAM e fine della storia.
    Nel caso migliore tu passi una brutta settimana, ma poi ti si sistema tutto e fai finta che non sia successo nulla, che è la specialità che ogni suddito sviluppa per sopravvivere.
    Nel caso peggiore passi i guai, perdi tutto e magari si viene anche a sapere in giro che mandi foto di bambini nudi.

    Eh no, mi dispiace, ma il titolo è giusto

  • Privacy Pride: il 23 settembre nelle città italiane per rivendicare il diritto alla privacy contro il regolamento europeo CHATCONTROL
  • @AnxiousDuck

    > Certo mi sembra una cosa davvero troppo enorme perché si avveri così in sordina

    Infatti è per questo che noi attivisti digitali, che di solito non scendiamo mai in piazza, abbiamo capito che se non lo avessimo fatto noi, non l'avrebbe mai fatto nessuno! 😐

    > Piuttosto se ho capito bene l'applicazione di questo protocollo sarebbe (ancora) su base volontaria

    Ora sì e questa è già una deroga alla direttiva e-privacy, ma quella era chatcontrol 1, di cui ovviamente non si è parlato affatto; ma se passa questo provvedimento, i fornitori dei servizi saranno OBBLIGATI

    > non ho dubbi che Meta e compagnia sarebbero in prima linea, ma nessun servizio di messaggistica/e-mail private e posizionato sul mercato come tale si sognerebbe mai di fare una cosa del genere, sarebbe contro il loro business.

    In realtà è soprattutto Google a sostenere questo provvedimento (e l'ha messo in pratica già con i suoi servizi), ma altre bigtech non sono molto contente e addirittura Apple, che in un primo momento aveva aderito, ha cambiato idea.

  • Privacy Pride: il 23 settembre nelle città italiane per rivendicare il diritto alla privacy contro il regolamento europeo CHATCONTROL
  • Esattamente: come dice @leviticoh in risposta a @AnxiousDuck in questo momento non si parla (ancora) di creare backdoor alla crittografia.

    Il metodo individuato è far sì che ogni client disponga di un sistema che setaccia automaticamente ogni frase, ogni immagine e ogni video, per individuare contenuti che possano far pensare ad abusi su minori.

    Ogni frase che faccia pensare alla vendita o all'acquisto di bambini o all'adescamento o a frasi troppo affettuose o alla ricerca/invio/commenti a foto e video di minori; ogni foto che ritragga un minore (o stimato come tale) in un contesto problematico (corpo troppo scoperto, pose tipiche della pedopornografia, etc); ogni video che risponda a schemi noti del mercato pedopornografico; tutto questo verrà

    Insomma tutto il sexting tra maggiorenni giovani o quello tra fidanzatini minorenni, tutti i giochi di ruolo sessuali, i video equivocabili e tutto ciò che il sistema IA riconoscerà come problematico in base al suo schema (perché uno schema di intelligenza artificiale può impazzire e riconoscere problematico anche l'atto di compravendita di una barca che si chiama "bimba" o la foto di una banana e una pesca), tutto ciò potrà essere guardato prima dall'addetto di whatsapp, telegram, google e poi da qualche agente della postale...

    La rottura della crittografia invece è un proposito che si sta tentando di perseguire nel gruppo dei 5+2 (USA, UK, Canada, Australia, Nuova Zelanda + India e Giappone) e di cui qualcuno inizia a parlare anche in Europa. In questo caso, la motivazione nobile non saranno più i bambini ma il "😱TERRORISMO!😱"... 😎😎😎

  • privacypride privacypride @poliverso.org
    Posts 48
    Comments 11
    Moderates