mfioretti: data ownership* + facebook*

Bookmarks on this page are managed by an admin user.

73 bookmark(s) - Sort by: Date ↓ / Title / Voting / - Bookmarks from other users for this tag

  1. “I believe it’s important to tell people exactly how the information that they share on Facebook is going to be used.

    “That’s why, every single time you go to share something on Facebook, whether it’s a photo in Facebook, or a message, every single time, there’s a control right there about who you’re going to be sharing it with ... and you can change that and control that in line.

    “To your broader point about the privacy policy ... long privacy policies are very confusing. And if you make it long and spell out all the detail, then you’re probably going to reduce the per cent of people who read it and make it accessible to them.”
    https://www.theguardian.com/technolog...testimony-to-congress-the-key-moments
    Voting 0
  2. Should there be regulation?#
    Yes. On privacy disclosure, and prohibiting the most draconian uses of user data. It should not be possible for users to give those rights up in exchange for use of a social system like Facebook. The idea is similar to the law in California that says that most non-competes are not enforceable. The benefit you receive has to be somewhat equivalent to the data you give up. #
    What about Google, Apple, Amazon?#
    This is the really important stuff.#
    This affair should get users, government and the press to look at other tech companies who have business models based on getting users to disclose ever-more-intimate information. Here are some examples.#
    Google, through Android, knows every place you go. They use that data. Do they sell it? I don't know, but I'm pretty sure you can use it to target ads. Apple, through the iPhone also knows where you go.#
    Apps on Android or iPhones can be told where you go. Many of them are only useful if you let them have the info. Apps can also have all your pictures, contacts. Face recognition makes it possible to construct a social graph without any access to the Facebook API.#
    Google and Apple can listen to all your phone calls.#
    Google, through their Chrome browser, knows everywhere you go on the web, and everything you type into the browser. #
    Amazon Echo and Google Home are always listening. Imagine a leak based on conversations at home, phone calls, personal habits, arguments you have with your spouse, kids, any illegal activities that might be going on in your home. #
    If you have a Gmail account, Google reads your mail, and targets ads at you based on what you're writing about. They also read the email that people send to you, people who may not also be Gmail users. Some examples of how creepy this can be -- they seem to know what my investments are, btw -- I assume they figured this out through email. Recently they told me when a friend's flight to NYC was arriving. I don't know how they made this connection. I assume it was through email.#
    Amazon, of course, knows everything you buy through Amazon. #
    Google knows everything you search for. #
    And on and on. We've reconstructed our whole society around companies having all the data about us that they want. It's kind of funny that we're all freaking out about Cambridge Analytica and Facebook. The problem is so much bigger. #
    Summary#
    It seems like a non-event to me. The press knew all about the API going back to 2012. That they didn't foresee the problem then is a result of the press accepting the hype of big tech companies on their terms, and not trying to find out what the implications of technology are from non-partisan experts. This was a story that could have and should have been written in 2010, warning users of a hidden cost to Facebook.#
    Today's scandal, the equivalent of the one in 2010, is that Google is attempting to turn the web into a corporate platform. Once they control the web as Facebook controls the Social Graph, we'll have another impossibly huge problem to deal with. Better to head this one off with regulation, now, when it can do some good
    http://scripting.com/2018/04/11/140429.html
    Voting 0
  3. These users have invested time and money in building their social networks on Facebook, yet they have no means to port the connectivity elsewhere. Whenever a serious competitor to Facebook has arisen, the company has quickly copied it (Snapchat) or purchased it (WhatsApp, Instagram), often at a mind-boggling price that only a behemoth with massive cash reserves could afford. Nor do people have any means to completely stop being tracked by Facebook. The surveillance follows them not just on the platform, but elsewhere on the internet—some of them apparently can’t even text their friends without Facebook trying to snoop in on the conversation. Facebook doesn’t just collect data itself; it has purchased external data from data brokers; it creates “shadow profiles” of nonusers and is now attempting to match offline data to its online profiles.

    Again, this isn’t a community; this is a regime of one-sided, highly profitable surveillance, carried out on a scale that has made Facebook one of the largest companies in the world by market capitalization.

    There is no other way to interpret Facebook’s privacy invading moves over the years—even if it’s time to simplify! finally!―as anything other than decisions driven by a combination of self-serving impulses: namely, profit motives, the structural incentives inherent to the company’s business model, and the one-sided ideology of its founders and some executives. All these are forces over which the users themselves have little input, aside from the regular opportunity to grouse through repeated scandals.

    And even the ideology—a vague philosophy that purports to prize openness and connectivity with little to say about privacy and other values—is one that does not seem to apply to people who run Facebook or work for it. Zuckerberg buys houses surrounding his and tapes over his computer’s camera to preserve his own privacy, and company employees went up in arms when a controversial internal memo that made an argument for growth at all costs was recently leaked to the press—a nonconsensual, surprising, and uncomfortable disclosure of the kind that Facebook has routinely imposed upon its billions of users over the years.

    This isn’t to say Facebook doesn’t provide real value to its users, even as it locks them in through network effects and by crushing, buying, and copying its competition. I wrote a whole book in which I document, among other things, how useful Facebook has been to anticensorship efforts around the world. It doesn’t even mean that Facebook executives ...
    https://www.wired.com/story/why-zucke...nt-fixed-facebook?mbid=social_twitter
    Voting 0
  4. Di nuovo: dove sta lo scandalo di questi giorni, dunque? Lo scandalo sta nell’evidenza di un errore di fondo nella concezione delle interazioni umane, la concezione che Mark Zuckerberg ha imposto — per sua stessa ammissione, nel tanto agnognato intervento post-Cambridge Analytica — dal 2007. L’idea cioè di costruire un “web dove si è social di default”. Dove cioè la norma è condividere. Un principio che è strutturalmente opposto alla tutela della privacy individuale, che si fonda sulla riservatezza come norma, riguardo ai propri dati personali.

    Zuckerberg lo spiega benissimo nel suo più recente intervento, individuando - giustamente - in quell’errore filosofico e antropologico la radice della tempesta in cui è costretto a destreggiarsi: “Nel 2007, abbiamo lanciato la Facebook Platform nella convinzione (“vision”) che più app dovessero essere social. Il tuo calendario doveva poterti mostrare il compleanno degli amici, le tue mappe mostrare dove vivono i tuoi amici, il tuo address book le loro foto. Per farlo, abbiamo consentito di accedere alle app e condividere chi fossero i tuoi amici e alcune informazioni su di loro”.

    È questo che conduce, nel 2013, Kogan a ottenere l’accesso ai dati di milioni di persone. E certo, quei dati hanno un immenso valore scientifico — ed è giusto che la ricerca, se condotta nel pieno rispetto del consenso informato degli utenti divenuti soggetti sperimentali, possa accedervi. Per soli scopi accademici, però. E anche così, già nel 2014 il famoso esperimento condotto da Facebook stessa sulla manipolazione delle emozioni di centinaia di migliaia di utenti, a cui erano stati mostrati deliberatamente più contenuti positivi o negativi, aveva dimostrato che anche quando non ci sono di mezzo fini commerciali, la questione è ambigua, complessa. E che no, non basta accettare condizioni di utilizzo intricate e che non legge nessuno per dire che allora ogni utente ha, per il fatto stesso di avere accettato di essere su Facebook, di diventare indiscriminatamente un topo di laboratorio arruolato in esperimenti di cui ignora tutto.

    Eppure è proprio la piattaforma a rendersi conto, già in quello stesso anno, che così le cose non vanno. Che a quel modo Facebook perde il controllo su quali terze parti hanno accesso ai dati dei suoi utenti. La policy dunque cambia, e da allora gli “amici” devono acconsentire al trattamento dei propri dati da parte di una app. La nuova filosofia, ricorda Albright, è “people first”. Ma è tardi. E l’incapacità di rientrare davvero in possesso di quell’ammasso di informazioni, dimostrata dal caso Cambridge Analytica – possibile Facebook debba scoprire dai giornali che l’azienda non aveva cancellato i dati che diceva di aver cancellato, o che debba comunque condurre un auditing serio per verificarlo ora, dimostrando di non avere idea se lo siano o meno? – fa capire che il problema va ben oltre il singolo caso in questione, ma è sistematico.

    Per capirci più chiaramente: come scrive Albright, la prima versione delle API v.1.0 per il Facebook Graph – cioè ciò che gli sviluppatori di applicazioni potevano ottenere dal social network tra il 2010, data di lancio, e il 2014, data in cui la policy è cambiata – consentiva di sapere non su chi si iscriveva a una determinata app, ma dagli amici inconsapevoli, i seguenti dati: “about, azioni, attività, compleanno, check-ins, istruzione, eventi, giochi, gruppi, residenza, interessi, like, luogo, note, status, tag, foto, domande, relazioni, religione/politica, iscrizioni, siti, storia lavorativa”. Davvero si poteva pensare di controllare dove finissero tutti questi dati, per milioni e milioni di persone?

    E davvero Facebook lo scopre oggi? Nel 2011, la Federal Trade Commission americana aveva già segnalato la questione come problematica. Non ha insegnato nulla
    https://www.valigiablu.it/facebook-cambridge-analytica-scandalo
    Voting 0
  5. Mark Zuckerberg also launched Facebook with a disdain for intrusive advertising, but it wasn’t long before the social network giant became Google’s biggest competitor for ad dollars. After going public with 845 million users in 2012, Facebook became a multibillion-dollar company and Zuckerberg one of the richest men on Earth, but with only a promise that the company would figure out how to monetize its platform.

    Facebook ultimately sold companies on its platform by promising “brand awareness” and the best possible data on what consumers actually liked. Brands could start their own Facebook pages, which people would actually “like” and interact with. This provided unparalleled information about what company each individual person wanted to interact with the most. By engaging with companies on Facebook, people gave corporate marketing departments more information than they could have ever dreamed of buying, but here it was offered up free.

    This was the “grand bargain,” as Columbia University law professor Tim Wu called it in his book, The Attention Merchants, that users struck with corporations. Wu wrote that Facebook’s “billions of users worldwide were simply handing over a treasure trove of detailed demographic data and exposing themselves to highly targeted advertising in return for what, exactly?”

    In other words: We will give you every detail of our lives and you will get rich by selling that information to advertisers.

    European regulators are now saying that bargain was a bad deal. The big question that remains is whether their counterparts in the U.S. will follow their lead.
    https://www.huffingtonpost.com/entry/...antitrust_us_5a625023e4b0dc592a088f6c
    Voting 0
  6. "Continueremo a lavorare con le autorità francesi per garantire che gli utenti comprendano quali informazioni vengono raccolte e come vengono utilizzate", ha affermato WhatsApp in una dichiarazione inviata per posta elettronica. "Ci impegniamo a risolvere le diverse e talvolta contraddittorie preoccupazioni che hanno sollevato le autorità per la protezione dei dati, con un approccio comune a livello europeo prima che nuove norme sulla protezione dei dati a livello di blocco entrino in vigore nel maggio 2018".

    I trasferimenti di dati da WhatsApp a Facebook avvengono in parte senza il consenso dell'utente, ha ribadito l'ente francese che ha anche respinto le argomentazioni di WhatsApp secondo le quali l'azienda sarebbe soggetta solo alla legge degli Stati Uniti. Il monito francese, è "un avviso formale, non una sanzione", ma il colosso dei messaggi rischierebbe di incorrere in multe in una fase successiva.
    http://www.repubblica.it/tecnologia/2...ncia_il_garante_fb_whatsapp-184580045
    Voting 0
  7. Come è possibile fatturare 18 miliardi con 20mila dipendenti?

    Per esempio, una foto fornisce luogo e ora del caricamento e dello scatto, oltre che la marca dello smartphone. Una miniera di dati che Facebook – come agenzia pubblicitaria – rivende ai suoi clienti inserzionisti. “Se carico la foto del mio gatto, visualizzerò con ogni probabilità inserzioni di cibo per animali. Ma se carico la foto alle 4 del mattino, potrei essere inserito nel segmento dei nottambuli e ricevere pubblicità di prodotti contro l’insonnia”, spiega Casilli.

    Nel quarto trimestre del 2016, l’azienda di Mark Zuckerberg ha guadagnato 4,83 dollari per utente. Nel 2015 ha fatturato 17,93 milioni di dollari l’anno con circa 20mila dipendenti fissi. Come è possibile? Grazie a 1,86 miliardi di lavoratori invisibili, cioè tutti noi che ogni giorno carichiamo contenuti consapevolmente e creiamo metriche pubblicitarie senza rendercene conto.
    https://www.terrelibere.org/facebook-pagami
    Voting 0
  8. Il 28 giugno 2016 la Hill aveva pubblicato un articolo in cui sosteneva che Facebook stesse utilizzando la geolocalizzazione degli utenti per migliorare i propri suggerimenti. Menlo Park inizialmente conferma (due volte, stando a quanto riporta Hill), precisando però che questo sarebbe solo uno dei fattori che determinano chi compare nella sezione “persone che potresti conoscere”, per poi fare dietrofront e dire che no, assolutamente, la geolocalizzazione non viene usata. Il che però non spiega in che modo il padre di un ragazzino con tendenze suicide, dopo aver frequentato un incontro di supporto, il giorno dopo si sia trovato tra i suggerimenti un altro dei genitori presenti.

    Kashmir Hill, che da qualche mese ormai tiene d’occhio la sezione “persone che potresti conoscere”, scaricando e stampando di volta in volta la lista di suggerimenti che le viene proposta (circa 160 nomi al giorno), ha tentato più volte di chiedere delucidazioni sul funzionamento dell’algoritmo. Dopo aver ragionevolmente ipotizzato che lo spunto per queste serie di nomi arrivasse da blocchi di informazioni vendute da data broker, un portavoce le risponde in modo piuttosto secco che “Facebook non utilizza informazioni di fornitori di dati per la sezione ‘persone che potresti conoscere’”. Nel frattempo raccoglie testimonianze di gente che con quella sezione non ha avuto interazioni del tutto felici. Hill racconta del caso di una prostituta, Leia (ovviamente uno pseudonimo), che ha visto comparire tra le “persone che avrebbe potuto conoscere” alcuni dei propri clienti. Questo nonostante avesse usato la massima cautela sul social, registrandosi con un indirizzo email accademico e non facendo mai menzione della propria professione. C’è poi il caso di una psichiatra che si è vista suggerire molti dei propri pazienti come possibili amici, due dei quali a loro volta sono comparsi l’uno nella lista di suggerimenti dell’altro. O quello di un avvocato che racconta di aver cancellato il proprio account dopo che tra le possibili amicizie aveva trovato il nome del difensore di una controparte in uno dei casi di cui si era occupato. I due avevano corrisposto solo tramite l’indirizzo email di lavoro, che Facebook non avrebbe avuto modo di ottenere per cessione volontaria dell’utente, visto che quest’ultimo non aveva dato il consenso per la condivisione dei proprio contatti.

    Tutto ciò è possibile perché oltre all’enorme mole di dati che forniamo volontariamente, Facebook immagazzina tutta una serie di altre informazioni su di noi e sui nostri contatti, che va a costituire il cosiddetto “shadow profile”. Immaginate un ipotetico iceberg, la cui punta sono i dati che cediamo di nostra spontanea volontà: ne rimane una gigantesca porzione nascosta, che è appunto utilizzata dal social non solo per decidere chi sarà la prossima persona a cui chiederemo l’amicizia, ma anche per arricchire il nostro pacchetto di preferenze e caratteristiche personali – pacchetto che andrà a migliorare le targhettizzazioni delle inserzioni.

    Come vengono raccolte queste informazioni? Stando a quanto riporta Hill, nel momento in cui si decide di utilizzare il servizio “Trova amici” si accetta di trasmettere tutti i propri contatti a Facebook. Il che significa: numeri di telefono (se si utilizza l’app per mobile), indirizzi email (se si usa in desktop o da cellulare), nomi ed eventuali soprannomi degli intestatari. Avete appena ceduto a terzi tutta la vostra rubrica. Questi contatti vengono quindi messi a confronto e incrociati. Se anche un solo indirizzo email e numero di telefono tra quelli che avete appena ceduto è presente nella rubrica di un qualsiasi altro utente – che deve però a sua volta aver accettato di condividere i contatti – allora sarete reciprocamente suggeriti come amici. Se il vostro nome è salvato nella rubrica di un user che dà il proprio consenso per caricarla online, il vostro contatto entrerà nel sistema con il vostro nome e cognome, che voi abbiate o meno deciso di caricare i dati su Facebook.

    Tornando al caso dell’avvocato citato prima, com’è possibile che gli sia stato proposto come amico un altro legale con cui ha corrisposto solo tramite la propria mail lavorativa? Non serve nemmeno che l’avvocato in questione decida di condividere i propri contatti. Basta che un qualsiasi altro utente abbia quella mail salvata sotto il nome del legale e che la condivida con Facebook. A questo punto il sito, avendo il suo nome, cognome e indirizzo email, è in grado di metterlo in contatto con qualsiasi altro utente in possesso di quella stessa mail. Nel caso in questione, il legale di controparte.

    Gli shadow profile non sono una novità. L’iniziativa Europe v. Facebook aveva presentato un reclamo formale già nel 2011 (vi vengono elencate sette istanze in cui Facebook, con sede in Irlanda, avrebbe violato la legge irlandese per la protezione dei dati personali), ma la questione è esplosa nel giugno 2013, quando un bug colpì il social media rendendo pubblici indirizzi email e numeri di telefono privati di 6 milioni di utenti. Molti fra questi non avevano condiviso volontariamente le proprie informazioni. Scaricando il proprio file personale da Facebook, si potevano vedere non solo i dati “ufficiali” relativi alla propria lista di amici, ma anche i loro shadow profile. Il bug, insomma, ha dimostrato l’esistenza di un profilo ombra la cui esistenza si ipotizzava già da un paio di anni.

    Pensate a tutti i numeri che avete salvati in rubrica. Pensate a tutte le persone che avete visto una volta e di cui avete salvato il contatto, per un motivo o per l’altro. Se voi o le persone in questione caricate le vostre rispettive info su Facebook, i vostri profili saranno aggiornati. E così i suggerimenti diventeranno sempre più accurati, fino a includere qualsiasi pittoresco individuo che per qualche ragione ha anche un solo contatto in comune con voi. Tale profilo finirà per costituire una sorta di cronologia della vostra rubrica, con tutte le informazioni annesse a quest’ultima.

    Complice una piattaforma che non sempre dà prova di tutta la trasparenza che decanta, siamo convinti che tutto ciò che Facebook sa di noi sia frutto di interazioni dirette e delle nostre scelte consapevoli. In molti casi, purtroppo, ciò si rivela un clamoroso errore.

    Questo è uno di quei casi. L’elenco di “persone che potresti conoscere”, in realtà, non è altro che una delle possibili dimostrazioni di ciò che Facebook potrebbe conoscere su di voi.
    http://thevision.com/scienza/facebook-sa
    Voting 0
  9. The point is that Facebook has a strong, paternalistic view on what’s best for you, and it’s trying to transport you there. “To get people to this point where there’s more openness – that’s a big challenge. But I think we’ll do it,” Zuckerberg has said. He has reason to believe that he will achieve that goal. With its size, Facebook has amassed outsized powers. “In a lot of ways Facebook is more like a government than a traditional company,” Zuckerberg has said. “We have this large community of people, and more than other technology companies we’re really setting policies.”

    Without knowing it, Zuckerberg is the heir to a long political tradition. Over the last 200 years, the west has been unable to shake an abiding fantasy, a dream sequence in which we throw out the bum politicians and replace them with engineers – rule by slide rule. The French were the first to entertain this notion in the bloody, world-churning aftermath of their revolution. A coterie of the country’s most influential philosophers (notably, Henri de Saint-Simon and Auguste Comte) were genuinely torn about the course of the country. They hated all the old ancient bastions of parasitic power – the feudal lords, the priests and the warriors – but they also feared the chaos of the mob. To split the difference, they proposed a form of technocracy – engineers and assorted technicians would rule with beneficent disinterestedness. Engineers would strip the old order of its power, while governing in the spirit of science. They would impose rationality and order.
    Advertisement

    This dream has captivated intellectuals ever since, especially Americans. The great sociologist Thorstein Veblen was obsessed with installing engineers in power and, in 1921, wrote a book making his case. His vision briefly became a reality. In the aftermath of the first world war, American elites were aghast at all the irrational impulses unleashed by that conflict – the xenophobia, the racism, the urge to lynch and riot. And when the realities of economic life had grown so complicated, how could politicians possibly manage them? Americans of all persuasions began yearning for the salvific ascendance of the most famous engineer of his time: Herbert Hoover. In 1920, Franklin D Roosevelt – who would, of course, go on to replace him in 1932 – organised a movement to draft Hoover for the presidency.

    The Hoover experiment, in the end, hardly realised the happy fantasies about the Engineer King. A very different version of this dream, however, has come to fruition, in the form of the CEOs of the big tech companies. We’re not ruled by engineers, not yet, but they have become the dominant force in American life – the highest, most influential tier of our elite.

    There’s another way to describe this historical progression. Automation has come in waves. During the industrial revolution, machinery replaced manual workers. At first, machines required human operators. Over time, machines came to function with hardly any human intervention. For centuries, engineers automated physical labour; our new engineering elite has automated thought. They have perfected technologies that take over intellectual processes, that render the brain redundant. Or, as the former Google and Yahoo executive Marissa Mayer once argued, “You have to make words less human and more a piece of the machine.” Indeed, we have begun to outsource our intellectual work to companies that suggest what we should learn, the topics we should consider, and the items we ought to buy. These companies can justify their incursions into our lives with the very arguments that Saint-Simon and Comte articulated: they are supplying us with efficiency; they are imposing order on human life.

    Nobody better articulates the modern faith in engineering’s power to transform society than Zuckerberg. He told a group of software developers, “You know, I’m an engineer, and I think a key part of the engineering mindset is this hope and this belief that you can take any system that’s out there and make it much, much better than it is today. Anything, whether it’s hardware or software, a company, a developer ecosystem – you can take anything and make it much, much better.” The world will improve, if only Zuckerberg’s reason can prevail – and it will.

    The precise source of Facebook’s power is algorithms. That’s a concept repeated dutifully in nearly every story about the tech giants, yet it remains fuzzy at best to users of those sites. From the moment of the algorithm’s invention, it was possible to see its power, its revolutionary potential. The algorithm was developed in order to automate thinking, to remove difficult decisions from the hands of humans, to settle contentious debates.
    Advertisement

    The essence of the algorithm is entirely uncomplicated. The textbooks compare them to recipes – a series of precise steps that can be followed mindlessly. This is different from equations, which have one correct result. Algorithms merely capture the process for solving a problem and say nothing about where those steps ultimately lead.

    These recipes are the crucial building blocks of software. Programmers can’t simply order a computer to, say, search the internet. They must give the computer a set of specific instructions for accomplishing that task. These instructions must take the messy human activity of looking for information and transpose that into an orderly process that can be expressed in code. First do this … then do that. The process of translation, from concept to procedure to code, is inherently reductive. Complex processes must be subdivided into a series of binary choices. There’s no equation to suggest a dress to wear, but an algorithm could easily be written for that – it will work its way through a series of either/or questions (morning or night, winter or summer, sun or rain), with each choice pushing to the next.

    Facebook would never put it this way, but algorithms are meant to erode free will, to relieve humans of the burden of choosing, to nudge them in the right direction. Algorithms fuel a sense of omnipotence, the condescending belief that our behaviour can be altered, without our even being aware of the hand guiding us, in a superior direction. That’s always been a danger of the engineering mindset, as it moves beyond its roots in building inanimate stuff and begins to design a more perfect social world. We are the screws and rivets in the grand design.
    https://www.theguardian.com/technolog...r-on-free-will?CMP=Share_iOSApp_Other
    Voting 0
  10. La relazione dell’Autorità garante per la protezione dei dati personali non fa alcun riferimento con quei toni così banali ad “allarmi”, sottolinea invece le grandi questioni in campo, anzi raccontando i risultati ottenuti lavorando sulle discipline, le garanzie, il dialogo coi player, seguendo le linee guida dei gruppi dell’Unione. Se il mainstream dev’essere sempre quello dell’allarme e dei titoli fuorvianti, inutile lamentarsi della disintermediazione e dello strapotere delle piattaforme di social media.
    http://www.webnews.it/2017/06/06/garante-privacy-relazione-annuale
    Voting 0

Top of the page

First / Previous / Next / Last / Page 1 of 8 Online Bookmarks of M. Fioretti: Tags: data ownership + facebook

About - Propulsed by SemanticScuttle