<div dir="ltr">> From: Cory Doctorow <<a href="mailto:doctorow@craphound.com">doctorow@craphound.com</a>><br>> Date: August 27, 2020 0:08:21 JST<br>><br>> You've probably heard Zuboff's excellent coinage "Surveillance<br>> Capitalism" and perhaps you've read the paper it was introduced in, or<br>> the book that it led to.<br>><br>> Today, I've published a response to that book, "How to Destroy<br>> Surveillance Capitalism."<br>><br>> <a href="https://onezero.medium.com/how-to-destroy-surveillance-capitalism-8135e6744d59">https://onezero.medium.com/how-to-destroy-surveillance-capitalism-8135e6744d59</a><br>><br>> I wrote "How to Destroy..." after reading Zuboff's book and realizing<br>> that while I shared her alarm about how Big Tech was exercising undue<br>> influence over us, I completely disagreed with her thesis about the<br>> source of that influence and what should be done about it.<br>><br>> Zuboff calls surveillance capitalism a "rogue capitalism," a system that<br>> has used machine learning to effectively control our minds and shape our<br>> behavior so that we can no longer serve as market actors whose purchase<br>> decisions promote good firms and products over bad ones.<br>><br>> Because of that, Big Tech has a permanent advantage, one that can't be<br>> addressed through traditional means like breakups or consent decrees,<br>> nor can it be analyzed through traditional privacy lenses.<br>><br>> But I think that's wrong. It's giving Big Tech far too much credit. I<br>> just don't buy the thesis that Big Tech used Big Data to create a<br>> mind-control ray to sell us fidget spinners, and that Cambridge<br>> Analytica hijacked it to make us all racists.<br>><br>> So I wrote "How to Destroy Surveillance Capitalism," a short book that<br>> delivers a different thesis: Big Tech is a monopoly problem. In fact,<br>> it's just a part of a wider monopoly problem that afflicts every sector<br>> of our global economy.<br>><br>> Accidentally and deliberately, monopolies create all kinds of malignant<br>> outcomes. If the company that has a monopoly on search starts serving<br>> wrong answers, people will believe them - not because of mind control,<br>> but because of dominance.<br>><br>> But monopolies have an even graver failure-mode: when a large,<br>> profitable industry collapses down to 4 or 5 companies, it's easy for<br>> those companies to agree on what they think policy should be.<br>><br>> And being monopolists, they have lots of spare cash to convert that<br>> agreement to actual policy. What's more, once an industry is<br>> monopolized, everyone qualified to understand and regulate it probably<br>> came from one of the dominant companies.<br>><br>> Think of how the "good" Obama FCC chairman was a former Comcast exec and<br>> the "bad" Trump FCC chair is a former Verizon lawyer.<br>><br>> There's a name for regulatory outcomes driven by collusion among<br>> monopolists whose regulators come from their own ranks.<br>><br>> We call them: "Conspiracies."<br>><br>> When social scientists investigate conspiracists, they find people whose<br>> beliefs are the result of real trauma (like losing a loved one to<br>> opiods) and real conspiracies (the Sackler family and other Big Pharma<br>> barons suborning their regulators).<br>><br>> The combination of real trauma and real conspiracies gives ALL<br>> conspiracies explanatory power. This is brilliantly documented in Anna<br>> Merlan's "Republic of Lies," one of the most important books on the rise<br>> of conspiratorial thinking I've read.<br>><br>> <a href="https://boingboing.net/2019/09/21/from-opioids-to-antivax.html">https://boingboing.net/2019/09/21/from-opioids-to-antivax.html</a><br>><br>> Surveillance Capitalism is a real, serious, urgent problem, but not<br>> because it accidentally led to a working mind-control ray and then<br>> turned it over to Nazis.<br>><br>> It's a problem because it is both emblematic of monopolies (which lead<br>> to corruption, AKA conspiracies) and because the vast, nonconsensual<br>> dossiers it compiles on us can be used to compromise and neutralize<br>> opposition to the status quo.<br>><br>> And Big Tech *does* exert control over us, but not with mind-control<br>> rays. Lock-in (and laws that support it) allows Big Tech to decide how<br>> we can use our devices, who can fix them, and when they must be thrown away.<br>><br>> Lock-in is an invitation to totalitarianism: the Chinese government<br>> observed the fact that Apple alone could decide which apps can run on<br>> Iphones, then ordered Apple to remove apps that allowed Chinese people<br>> privacy from the state.<br>><br>> I'm sure that the Uyghurs in concentration camps and the Falun Gong<br>> members having their organs harvested are relieved that Apple abetted<br>> their surveillance for reasons other than mere marketing.<br>><br>> This is the core of my critique, the reason I wrote this book: we should<br>> be suspicious of all corporate control over our lives, and should insist<br>> on nothing less than absolute technological self-determination.<br>><br>> The idea that "if you're not paying for the product, you're the<br>> product," suggests the simplistic solution of just charging for<br>> everything. But the reality is that in a monopoly, you're the product<br>> irrespective of whether you're paying.<br>><br>> We deserve to be more than products.<br>><br>> I am so grateful to Onezero for the incredible look-and-feel of my new<br>> book. It's a free read on their site, with a really fantastic new nav<br>> system that will help you pick up where you left off.<br>><br>> And I'd be remiss if I didn't mention the spectacular artwork that Shira<br>> Inbar did for the book, and the tireless efforts of my editor, Brian<br>> Merchant, who championed it internally and is ultimately responsible for<br>> the brilliant package you see before you.<br>><br>> I'm also excited to note that this will be shortly coming out as a print<br>> book, doubtless just as beautiful as this digital edition.<br>><br>> I know it's a longread, but I hope you'll give it a try.<br>><br>> Big Tech *needs* a corrective, and that corrective - antimonopoly<br>> enforcement - is part of a global movement that addresses deep, systemic<br>> problems in every sector. This is a moment for us to seize, but we have<br><div>> to understand where the problem really lies.</div><div><br></div><div>*****<br></div><div><br></div><div>From: "David P. Reed" <<a href="mailto:dpreed@deepplum.com">dpreed@deepplum.com</a>><br>Date: August 26, 2020 at 1:53:00 PM EDT<br><br>...Cory's missed the mark in this book critiquing Zuboff. Not that Shoshana's book is beyond critique, I don't agree with some of what she says in it. Critiques are fine. But this one promotes a dangerous idea, going beyond critique.<br>------------------------<br><br>Since you give the opinionated Cory Doctorow a place of powerful presence, I think there should be room for criticism from readers like me. (I don't see much adorable about Cory's opinions, though he writes interesting SF stories).<br><br>Cory Doctorow writes, as you quote on Dewayne-Net:  "This is the core of my critique, the reason I wrote this book: we should be suspicious of all corporate control over our lives, and should insist on nothing less than absolute technological self-determination."<br><br>"Nothing less than absolute technological self-determination" is an interesting phrase. Cory has espoused a brand of thinking centered on technology that others have called "Techno-Determinism". The idea that technology determines what it will get used for, if left alone. Very much as the "Free Marketeers" see an unfettered "market" through the eyes of "market determinism".<br><br>And continuing the analogy a little further, just as "Free Marketeers" reduce society to transactions in a market, Cory and "Technological Determinists" reduce society to technology use, attaching the epiphenomena that surround a technology firmly to the technology itself.<br><br>Thus, Cory promotes the idea of Freeing Technology from all restraints, reducing all our problems to technology choice and rules about technology. Which is why he situates his critique of human relationship to technology around "Free the Technology" ideas. (viz. the "Right to Repair" being about freeing technological objects from "fetters" imposed by government rules. He doesn't question the legitimacy of such rules, but accepts the idea of a central, all-powerful government, instead choosing to argue that government *should not govern technology use*, a very different thing indeed.)<br><br>So, it is quite interesting that he freaks out about "Surveillance Capitalism" as embodying the technologies of surveillance and manipulation, because Zuboff seems to him to seek limiting the freedom of these technologies to determine their own use.<br><br>Instead he practices "whaddaboutism", blaming monopoly power for stifling what a Truly Free Technology might do for humanity.<br><br>Technodeterminism is a bizarre idea, when you come down to it. It dehumanizes society, objectifying technology's users, very much like many Science Fiction stories do.<br>If you are a techno-determinist, you don't need to confront the complexities of Human Nature to discuss systems - they become pure.<br><br>And this is what  Cory's critique ignores in Zuboff's writing. Zuboff centers her discussion on the human, the social, ... not on a critique of the technology at all. Instead she discusses the relationship between, say, Google's users and Google's customers. Almost none of Google's users of its products are customers! That is what "Free" is about in Silicon Valley. And Zuboff, who studies systems of businesses and industries, sees such subtleties.<br><br>But Cory doesn't see such things, reducing everything to a system literally determined by Technology, which he argues must be Free, both as in beer and as in liberty. Thus, in his world, Freeing Technology will create a true utopia.<br><br>That's the logic in Cory's book, whose purpose, as he says, is to argue for "nothing less than Technological Self Determination".</div></div>