mfioretti: data ownership* + privacy*

Bookmarks on this page are managed by an admin user.

113 bookmark(s) - Sort by: Date ↓ / Title / Voting / - Bookmarks from other users for this tag

  1. Journalists have been asking me whether the revulsion against the abuse of Facebook data could be a turning point for the campaign to recover privacy. That could happen, if the public makes its campaign broader and deeper.

    Broader, meaning extending to all surveillance systems, not just Facebook. Deeper, meaning to advance from regulating the use of data to regulating the accumulation of data. Because surveillance is so pervasive, restoring privacy is necessarily a big change, and requires powerful measures.
    After the Facebook scandal it’s time to base the digital economy on public v private ownership of data
    Evgeny Morozov
    Read more

    The surveillance imposed on us today far exceeds that of the Soviet Union. For freedom and democracy’s sake, we need to eliminate most of it. There are so many ways to use data to hurt people that the only safe database is the one that was never collected. Thus, instead of the EU’s approach of mainly regulating how personal data may be used (in its General Data Protection Regulation or GDPR), I propose a law to stop systems from collecting personal data.

    The robust way to do that, the way that can’t be set aside at the whim of a government, is to require systems to be built so as not to collect data about a person. The basic principle is that a system must be designed not to collect certain data, if its basic function can be carried out without that data.

    Data about who travels where is particularly sensitive, because it is an ideal basis for repressing any chosen target. We can take the London trains and buses as a case for study.

    The Transport for London digital payment card system centrally records the trips any given Oyster or bank card has paid for. When a passenger feeds the card digitally, the system associates the card with the passenger’s identity. This adds up to complete surveillance.

    I expect the transport system can justify this practice under the GDPR’s rules. My proposal, by contrast, would require the system to stop tracking who goes where. The card’s basic function is to pay for transport. That can be done without centralising that data, so the transport system would have to stop doing so. When it accepts digital payments, it should do so through an anonymous payment system.

    Frills on the system, such as the feature of letting a passenger review the list of past journeys, are not part of the basic function, so they can’t justify incorporating any additional surveillance.
    Voting 0
  2. “I believe it’s important to tell people exactly how the information that they share on Facebook is going to be used.

    “That’s why, every single time you go to share something on Facebook, whether it’s a photo in Facebook, or a message, every single time, there’s a control right there about who you’re going to be sharing it with ... and you can change that and control that in line.

    “To your broader point about the privacy policy ... long privacy policies are very confusing. And if you make it long and spell out all the detail, then you’re probably going to reduce the per cent of people who read it and make it accessible to them.”
    Voting 0
  3. Should there be regulation?#
    Yes. On privacy disclosure, and prohibiting the most draconian uses of user data. It should not be possible for users to give those rights up in exchange for use of a social system like Facebook. The idea is similar to the law in California that says that most non-competes are not enforceable. The benefit you receive has to be somewhat equivalent to the data you give up. #
    What about Google, Apple, Amazon?#
    This is the really important stuff.#
    This affair should get users, government and the press to look at other tech companies who have business models based on getting users to disclose ever-more-intimate information. Here are some examples.#
    Google, through Android, knows every place you go. They use that data. Do they sell it? I don't know, but I'm pretty sure you can use it to target ads. Apple, through the iPhone also knows where you go.#
    Apps on Android or iPhones can be told where you go. Many of them are only useful if you let them have the info. Apps can also have all your pictures, contacts. Face recognition makes it possible to construct a social graph without any access to the Facebook API.#
    Google and Apple can listen to all your phone calls.#
    Google, through their Chrome browser, knows everywhere you go on the web, and everything you type into the browser. #
    Amazon Echo and Google Home are always listening. Imagine a leak based on conversations at home, phone calls, personal habits, arguments you have with your spouse, kids, any illegal activities that might be going on in your home. #
    If you have a Gmail account, Google reads your mail, and targets ads at you based on what you're writing about. They also read the email that people send to you, people who may not also be Gmail users. Some examples of how creepy this can be -- they seem to know what my investments are, btw -- I assume they figured this out through email. Recently they told me when a friend's flight to NYC was arriving. I don't know how they made this connection. I assume it was through email.#
    Amazon, of course, knows everything you buy through Amazon. #
    Google knows everything you search for. #
    And on and on. We've reconstructed our whole society around companies having all the data about us that they want. It's kind of funny that we're all freaking out about Cambridge Analytica and Facebook. The problem is so much bigger. #
    It seems like a non-event to me. The press knew all about the API going back to 2012. That they didn't foresee the problem then is a result of the press accepting the hype of big tech companies on their terms, and not trying to find out what the implications of technology are from non-partisan experts. This was a story that could have and should have been written in 2010, warning users of a hidden cost to Facebook.#
    Today's scandal, the equivalent of the one in 2010, is that Google is attempting to turn the web into a corporate platform. Once they control the web as Facebook controls the Social Graph, we'll have another impossibly huge problem to deal with. Better to head this one off with regulation, now, when it can do some good
    Voting 0
  4. These users have invested time and money in building their social networks on Facebook, yet they have no means to port the connectivity elsewhere. Whenever a serious competitor to Facebook has arisen, the company has quickly copied it (Snapchat) or purchased it (WhatsApp, Instagram), often at a mind-boggling price that only a behemoth with massive cash reserves could afford. Nor do people have any means to completely stop being tracked by Facebook. The surveillance follows them not just on the platform, but elsewhere on the internet—some of them apparently can’t even text their friends without Facebook trying to snoop in on the conversation. Facebook doesn’t just collect data itself; it has purchased external data from data brokers; it creates “shadow profiles” of nonusers and is now attempting to match offline data to its online profiles.

    Again, this isn’t a community; this is a regime of one-sided, highly profitable surveillance, carried out on a scale that has made Facebook one of the largest companies in the world by market capitalization.

    There is no other way to interpret Facebook’s privacy invading moves over the years—even if it’s time to simplify! finally!―as anything other than decisions driven by a combination of self-serving impulses: namely, profit motives, the structural incentives inherent to the company’s business model, and the one-sided ideology of its founders and some executives. All these are forces over which the users themselves have little input, aside from the regular opportunity to grouse through repeated scandals.

    And even the ideology—a vague philosophy that purports to prize openness and connectivity with little to say about privacy and other values—is one that does not seem to apply to people who run Facebook or work for it. Zuckerberg buys houses surrounding his and tapes over his computer’s camera to preserve his own privacy, and company employees went up in arms when a controversial internal memo that made an argument for growth at all costs was recently leaked to the press—a nonconsensual, surprising, and uncomfortable disclosure of the kind that Facebook has routinely imposed upon its billions of users over the years.

    This isn’t to say Facebook doesn’t provide real value to its users, even as it locks them in through network effects and by crushing, buying, and copying its competition. I wrote a whole book in which I document, among other things, how useful Facebook has been to anticensorship efforts around the world. It doesn’t even mean that Facebook executives ...
    Voting 0
  5. Di nuovo: dove sta lo scandalo di questi giorni, dunque? Lo scandalo sta nell’evidenza di un errore di fondo nella concezione delle interazioni umane, la concezione che Mark Zuckerberg ha imposto — per sua stessa ammissione, nel tanto agnognato intervento post-Cambridge Analytica — dal 2007. L’idea cioè di costruire un “web dove si è social di default”. Dove cioè la norma è condividere. Un principio che è strutturalmente opposto alla tutela della privacy individuale, che si fonda sulla riservatezza come norma, riguardo ai propri dati personali.

    Zuckerberg lo spiega benissimo nel suo più recente intervento, individuando - giustamente - in quell’errore filosofico e antropologico la radice della tempesta in cui è costretto a destreggiarsi: “Nel 2007, abbiamo lanciato la Facebook Platform nella convinzione (“vision”) che più app dovessero essere social. Il tuo calendario doveva poterti mostrare il compleanno degli amici, le tue mappe mostrare dove vivono i tuoi amici, il tuo address book le loro foto. Per farlo, abbiamo consentito di accedere alle app e condividere chi fossero i tuoi amici e alcune informazioni su di loro”.

    È questo che conduce, nel 2013, Kogan a ottenere l’accesso ai dati di milioni di persone. E certo, quei dati hanno un immenso valore scientifico — ed è giusto che la ricerca, se condotta nel pieno rispetto del consenso informato degli utenti divenuti soggetti sperimentali, possa accedervi. Per soli scopi accademici, però. E anche così, già nel 2014 il famoso esperimento condotto da Facebook stessa sulla manipolazione delle emozioni di centinaia di migliaia di utenti, a cui erano stati mostrati deliberatamente più contenuti positivi o negativi, aveva dimostrato che anche quando non ci sono di mezzo fini commerciali, la questione è ambigua, complessa. E che no, non basta accettare condizioni di utilizzo intricate e che non legge nessuno per dire che allora ogni utente ha, per il fatto stesso di avere accettato di essere su Facebook, di diventare indiscriminatamente un topo di laboratorio arruolato in esperimenti di cui ignora tutto.

    Eppure è proprio la piattaforma a rendersi conto, già in quello stesso anno, che così le cose non vanno. Che a quel modo Facebook perde il controllo su quali terze parti hanno accesso ai dati dei suoi utenti. La policy dunque cambia, e da allora gli “amici” devono acconsentire al trattamento dei propri dati da parte di una app. La nuova filosofia, ricorda Albright, è “people first”. Ma è tardi. E l’incapacità di rientrare davvero in possesso di quell’ammasso di informazioni, dimostrata dal caso Cambridge Analytica – possibile Facebook debba scoprire dai giornali che l’azienda non aveva cancellato i dati che diceva di aver cancellato, o che debba comunque condurre un auditing serio per verificarlo ora, dimostrando di non avere idea se lo siano o meno? – fa capire che il problema va ben oltre il singolo caso in questione, ma è sistematico.

    Per capirci più chiaramente: come scrive Albright, la prima versione delle API v.1.0 per il Facebook Graph – cioè ciò che gli sviluppatori di applicazioni potevano ottenere dal social network tra il 2010, data di lancio, e il 2014, data in cui la policy è cambiata – consentiva di sapere non su chi si iscriveva a una determinata app, ma dagli amici inconsapevoli, i seguenti dati: “about, azioni, attività, compleanno, check-ins, istruzione, eventi, giochi, gruppi, residenza, interessi, like, luogo, note, status, tag, foto, domande, relazioni, religione/politica, iscrizioni, siti, storia lavorativa”. Davvero si poteva pensare di controllare dove finissero tutti questi dati, per milioni e milioni di persone?

    E davvero Facebook lo scopre oggi? Nel 2011, la Federal Trade Commission americana aveva già segnalato la questione come problematica. Non ha insegnato nulla
    Voting 0
  6. IoT will be able to take stock of your choices, moods, preferences and tastes, the same way Google Search does. With enough spreadsheets, many practical questions are rendered trivial. How hard will it be for the IoT — maybe through Alexa, maybe through your phone — to statistically study why, where and when you raise your voice at your child? If you can correlate people’s habits and physical attributes, it will be toddler-easy to correlate mood to environment. The digitally connected devices of tomorrow would be poor consumer products if they did not learn you well. Being a good and faithful servant means monitoring the master closely, and that is what IoT devices will do. They will analyze your feedback and automate their responses — and predict your needs. In the IoT, Big Data is weaponized, and can peer deeper into the seeds your life than the government has ever dreamed.
    Voting 0
  7. Mark Zuckerberg also launched Facebook with a disdain for intrusive advertising, but it wasn’t long before the social network giant became Google’s biggest competitor for ad dollars. After going public with 845 million users in 2012, Facebook became a multibillion-dollar company and Zuckerberg one of the richest men on Earth, but with only a promise that the company would figure out how to monetize its platform.

    Facebook ultimately sold companies on its platform by promising “brand awareness” and the best possible data on what consumers actually liked. Brands could start their own Facebook pages, which people would actually “like” and interact with. This provided unparalleled information about what company each individual person wanted to interact with the most. By engaging with companies on Facebook, people gave corporate marketing departments more information than they could have ever dreamed of buying, but here it was offered up free.

    This was the “grand bargain,” as Columbia University law professor Tim Wu called it in his book, The Attention Merchants, that users struck with corporations. Wu wrote that Facebook’s “billions of users worldwide were simply handing over a treasure trove of detailed demographic data and exposing themselves to highly targeted advertising in return for what, exactly?”

    In other words: We will give you every detail of our lives and you will get rich by selling that information to advertisers.

    European regulators are now saying that bargain was a bad deal. The big question that remains is whether their counterparts in the U.S. will follow their lead.
    Voting 0
  8. "Continueremo a lavorare con le autorità francesi per garantire che gli utenti comprendano quali informazioni vengono raccolte e come vengono utilizzate", ha affermato WhatsApp in una dichiarazione inviata per posta elettronica. "Ci impegniamo a risolvere le diverse e talvolta contraddittorie preoccupazioni che hanno sollevato le autorità per la protezione dei dati, con un approccio comune a livello europeo prima che nuove norme sulla protezione dei dati a livello di blocco entrino in vigore nel maggio 2018".

    I trasferimenti di dati da WhatsApp a Facebook avvengono in parte senza il consenso dell'utente, ha ribadito l'ente francese che ha anche respinto le argomentazioni di WhatsApp secondo le quali l'azienda sarebbe soggetta solo alla legge degli Stati Uniti. Il monito francese, è "un avviso formale, non una sanzione", ma il colosso dei messaggi rischierebbe di incorrere in multe in una fase successiva.
    Voting 0
  9. should Central and State governments, banks and insurance companies, mobile phone operators, educational institutions, airlines and hospitals be vested with the draconian power to take coercive action against any person who does not have Aadhaar verification and to deprive him or her of basic services and benefits?

    This is the far-reaching, game-changing, mind-wrenching judgment that Justices Dipak Misra, Sikri, Khanwilkar, Chandrachud and Ashok Bhushan will have to deliver. It is an onerous task; and an awesome responsibility. It will alter the equation between citizenship and society, governance and commerce for generations to come.

    And, moreover, it is irreversible. Once Aadhaar is made mandatory, it will be meaningless to declare it to be voluntary or optional through some future judicial review.
    Tags: , , , by M. Fioretti (2017-12-17)
    Voting 0
  10. Il 28 giugno 2016 la Hill aveva pubblicato un articolo in cui sosteneva che Facebook stesse utilizzando la geolocalizzazione degli utenti per migliorare i propri suggerimenti. Menlo Park inizialmente conferma (due volte, stando a quanto riporta Hill), precisando però che questo sarebbe solo uno dei fattori che determinano chi compare nella sezione “persone che potresti conoscere”, per poi fare dietrofront e dire che no, assolutamente, la geolocalizzazione non viene usata. Il che però non spiega in che modo il padre di un ragazzino con tendenze suicide, dopo aver frequentato un incontro di supporto, il giorno dopo si sia trovato tra i suggerimenti un altro dei genitori presenti.

    Kashmir Hill, che da qualche mese ormai tiene d’occhio la sezione “persone che potresti conoscere”, scaricando e stampando di volta in volta la lista di suggerimenti che le viene proposta (circa 160 nomi al giorno), ha tentato più volte di chiedere delucidazioni sul funzionamento dell’algoritmo. Dopo aver ragionevolmente ipotizzato che lo spunto per queste serie di nomi arrivasse da blocchi di informazioni vendute da data broker, un portavoce le risponde in modo piuttosto secco che “Facebook non utilizza informazioni di fornitori di dati per la sezione ‘persone che potresti conoscere’”. Nel frattempo raccoglie testimonianze di gente che con quella sezione non ha avuto interazioni del tutto felici. Hill racconta del caso di una prostituta, Leia (ovviamente uno pseudonimo), che ha visto comparire tra le “persone che avrebbe potuto conoscere” alcuni dei propri clienti. Questo nonostante avesse usato la massima cautela sul social, registrandosi con un indirizzo email accademico e non facendo mai menzione della propria professione. C’è poi il caso di una psichiatra che si è vista suggerire molti dei propri pazienti come possibili amici, due dei quali a loro volta sono comparsi l’uno nella lista di suggerimenti dell’altro. O quello di un avvocato che racconta di aver cancellato il proprio account dopo che tra le possibili amicizie aveva trovato il nome del difensore di una controparte in uno dei casi di cui si era occupato. I due avevano corrisposto solo tramite l’indirizzo email di lavoro, che Facebook non avrebbe avuto modo di ottenere per cessione volontaria dell’utente, visto che quest’ultimo non aveva dato il consenso per la condivisione dei proprio contatti.

    Tutto ciò è possibile perché oltre all’enorme mole di dati che forniamo volontariamente, Facebook immagazzina tutta una serie di altre informazioni su di noi e sui nostri contatti, che va a costituire il cosiddetto “shadow profile”. Immaginate un ipotetico iceberg, la cui punta sono i dati che cediamo di nostra spontanea volontà: ne rimane una gigantesca porzione nascosta, che è appunto utilizzata dal social non solo per decidere chi sarà la prossima persona a cui chiederemo l’amicizia, ma anche per arricchire il nostro pacchetto di preferenze e caratteristiche personali – pacchetto che andrà a migliorare le targhettizzazioni delle inserzioni.

    Come vengono raccolte queste informazioni? Stando a quanto riporta Hill, nel momento in cui si decide di utilizzare il servizio “Trova amici” si accetta di trasmettere tutti i propri contatti a Facebook. Il che significa: numeri di telefono (se si utilizza l’app per mobile), indirizzi email (se si usa in desktop o da cellulare), nomi ed eventuali soprannomi degli intestatari. Avete appena ceduto a terzi tutta la vostra rubrica. Questi contatti vengono quindi messi a confronto e incrociati. Se anche un solo indirizzo email e numero di telefono tra quelli che avete appena ceduto è presente nella rubrica di un qualsiasi altro utente – che deve però a sua volta aver accettato di condividere i contatti – allora sarete reciprocamente suggeriti come amici. Se il vostro nome è salvato nella rubrica di un user che dà il proprio consenso per caricarla online, il vostro contatto entrerà nel sistema con il vostro nome e cognome, che voi abbiate o meno deciso di caricare i dati su Facebook.

    Tornando al caso dell’avvocato citato prima, com’è possibile che gli sia stato proposto come amico un altro legale con cui ha corrisposto solo tramite la propria mail lavorativa? Non serve nemmeno che l’avvocato in questione decida di condividere i propri contatti. Basta che un qualsiasi altro utente abbia quella mail salvata sotto il nome del legale e che la condivida con Facebook. A questo punto il sito, avendo il suo nome, cognome e indirizzo email, è in grado di metterlo in contatto con qualsiasi altro utente in possesso di quella stessa mail. Nel caso in questione, il legale di controparte.

    Gli shadow profile non sono una novità. L’iniziativa Europe v. Facebook aveva presentato un reclamo formale già nel 2011 (vi vengono elencate sette istanze in cui Facebook, con sede in Irlanda, avrebbe violato la legge irlandese per la protezione dei dati personali), ma la questione è esplosa nel giugno 2013, quando un bug colpì il social media rendendo pubblici indirizzi email e numeri di telefono privati di 6 milioni di utenti. Molti fra questi non avevano condiviso volontariamente le proprie informazioni. Scaricando il proprio file personale da Facebook, si potevano vedere non solo i dati “ufficiali” relativi alla propria lista di amici, ma anche i loro shadow profile. Il bug, insomma, ha dimostrato l’esistenza di un profilo ombra la cui esistenza si ipotizzava già da un paio di anni.

    Pensate a tutti i numeri che avete salvati in rubrica. Pensate a tutte le persone che avete visto una volta e di cui avete salvato il contatto, per un motivo o per l’altro. Se voi o le persone in questione caricate le vostre rispettive info su Facebook, i vostri profili saranno aggiornati. E così i suggerimenti diventeranno sempre più accurati, fino a includere qualsiasi pittoresco individuo che per qualche ragione ha anche un solo contatto in comune con voi. Tale profilo finirà per costituire una sorta di cronologia della vostra rubrica, con tutte le informazioni annesse a quest’ultima.

    Complice una piattaforma che non sempre dà prova di tutta la trasparenza che decanta, siamo convinti che tutto ciò che Facebook sa di noi sia frutto di interazioni dirette e delle nostre scelte consapevoli. In molti casi, purtroppo, ciò si rivela un clamoroso errore.

    Questo è uno di quei casi. L’elenco di “persone che potresti conoscere”, in realtà, non è altro che una delle possibili dimostrazioni di ciò che Facebook potrebbe conoscere su di voi.
    Voting 0

Top of the page

First / Previous / Next / Last / Page 1 of 12 Online Bookmarks of M. Fioretti: Tags: data ownership + privacy

About - Propulsed by SemanticScuttle