check in
authorM. Taylor Saotome-Westlake <[email protected]>
Fri, 17 Feb 2023 06:38:35 +0000 (22:38 -0800)
committerM. Taylor Saotome-Westlake <[email protected]>
Fri, 17 Feb 2023 06:38:35 +0000 (22:38 -0800)
content/drafts/a-hill-of-validity-in-defense-of-meaning.md
content/drafts/agreeing-with-stalin-in-ways-that-exhibit-generally-rationalist-principles.md
content/drafts/book-review-johnny-the-walrus.md
content/drafts/if-clarity-seems-like-death-to-them.md
content/drafts/standing-under-the-same-sky.md
notes/memoir-sections.md
notes/memoir_wordcounts.csv

index 564466a..2aeadd4 100644 (file)
@@ -425,7 +425,7 @@ I [tweeted a Sequences quote](https://twitter.com/zackmdavis/status/110787458782
 >
 > "No one begins to truly search for the Way until their parents have failed them, their gods are dead, and their tools have shattered in their hand." —@ESYudkowsky (https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) [end/3]
 
-Only it wasn't quite appropriate. The quote is about failure resulting in the need to invent new methods of rationality, better than the ones you were taught. But ... the methods I had been taught were great! I don't have a pressing need to improve on them! I just couldn't cope with everyone else having _forgotten!_
+Only it wasn't quite appropriate. The quote is about failure resulting in the need to invent new methods of rationality, better than the ones you were taught. But ... the methods I had been taught were great! I didn't have a pressing need to improve on them! I just couldn't cope with everyone else having _forgotten!_
 
 I did, eventually, get some dayjob work done that night, but I didn't finish the whole thing my manager wanted done by the next day, and at 4 _a.m._, I concluded that I needed sleep, the lack of which had historically been very dangerous for me (being the trigger for my [2013](http://zackmdavis.net/blog/2013/04/prodrome/) and [2017](/2017/Mar/fresh-princess/) psychotic breaks and subsequent psych imprisonments). We didn't want another bad outcome like that; we really didn't. There was a couch in the office, and probably another four hours until my coworkers started to arrive. The thing I needed to do was just lie down on the couch in the dark and have faith that sleep will come. Meeting my manager's deadline wasn't _that_ important. When people come in to the office, I might ask for help getting an Uber home? Or help buying melatonin? The important thing was to be calm.
 
@@ -449,7 +449,7 @@ I supposed that, in Michael's worldview, aggression is more honest than passive-
 
 Was the answer just that I needed to accept that there wasn't such a thing in the world as a "rationalist community"? (Sarah had told me as much two years ago, at BABSCon, and I just hadn't made the corresponing mental adjustments.)
 
-On the other hand, a possible reason to be attached to the "rationalist" brand name and social identity that wasn't just me being stupid was that _the way I talk_ had been trained really hard on this subculture for _ten years_. Most of my emails during this whole campaign had contained multiple Sequences or _Slate Star Codex_ links that I could just expect people to have read. I could spontaneously use [the phrase "Absolute Denial Macro"](https://www.lesswrong.com/posts/t2NN6JwMFaqANuLqH/the-strangest-thing-an-ai-could-tell-you) in conversation and expect to be understood. That's a massive "home field advantage." If I just gave up on the "rationalists" being a thing, and went out into the world to make friends with _Quillette_ readers or arbitrary University of Chicago graduates, then I would lose all that accumulated capital. Here, I had a _massive_ home territory advantage because I could appeal to Yudkowsky's writings about the philosophy of language from 10 years ago, and people couldn't say, "Eliezer _who?_ He's probably a Bad Man."
+On the other hand, a possible reason to be attached to the "rationalist" brand name and social identity that wasn't just me being stupid was that _the way I talk_ had been trained really hard on this subculture for _ten years_. Most of my emails during this whole campaign had contained multiple Sequences or _Slate Star Codex_ links that I could just expect people to have read. I could spontaneously use [the phrase "Absolute Denial Macro"](https://www.lesswrong.com/posts/t2NN6JwMFaqANuLqH/the-strangest-thing-an-ai-could-tell-you) in conversation and expect to be understood. That was a massive "home field advantage." If I just gave up on the "rationalists" being a thing, and went out into the world to make friends with _Quillette_ readers or arbitrary University of Chicago graduates, then I would lose all that accumulated capital. Here, I had a _massive_ home territory advantage because I could appeal to Yudkowsky's writings about the philosophy of language from 10 years ago, and people couldn't say, "Eliezer _who?_ He's probably a Bad Man."
 
 The language I spoke was _mostly_ educated American English, but I relied on subculture dialect for a lot. My sister has a chemistry doctorate from MIT (and so speaks the language of STEM intellectuals generally), and when I showed her ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/), she reported finding it somewhat hard to read, likely because I casually use phrases like "thus, an excellent [motte](https://slatestarcodex.com/2014/11/03/all-in-all-another-brick-in-the-motte/)", and expect to be understood without the reader taking 10 minutes to read the link. That essay, which was me writing from the heart in the words that came most naturally to me, could not be published in _Quillette_. The links and phraseology were just too context-bound.
 
@@ -564,7 +564,7 @@ We _lost?!_ How could we _lose?!_ The philosophy here was _very clear-cut_. This
 
 I could see how, under ordinary circumstances, asking Yudkowsky to weigh in on my post would be inappropriately demanding of a Very Important Person's time, given that an ordinary programmer such as me was surely as a mere _worm_ in the presence of the great Eliezer Yudkowsky. (I would have humbly given up much sooner if I hadn't gotten social proof from Michael and Ben and Sarah and secret posse member and Jessica.)
 
-But the only reason for my post to exist was because it would be even _more_ inappropriately demanding to ask for a clarification in the original gender-political context. The game theorist Thomas Schelling once wrote about the use of clever excuses to help one's negotiating counterparty release themselves from a prior commitment: "One must seek [...] a rationalization by which to deny oneself too great a reward from the opponent's concession, otherwise the concession will not be made."[^schelling] This is sort of what I was trying to do when soliciting—begging for—engagement-or-endorsement of "... Boundaries?" By making the post be about dolphins, I was trying to deny myself too great of a reward _on the gender-politics front_. I _don't_ think it was inappropriately demanding to expect "us" (him) to _be correct about the cognitive function of categorization_. (If not, why pretend to have a "rationality community" at all?) I was _trying_ to be as accomodating as I could, short of just letting him (us?) be wrong.
+But the only reason for my post to exist was because it would be even _more_ inappropriately demanding to ask for a clarification in the original gender-political context. The game theorist Thomas Schelling once wrote about the use of clever excuses to help one's negotiating counterparty release themselves from a prior commitment: "One must seek [...] a rationalization by which to deny oneself too great a reward from the opponent's concession, otherwise the concession will not be made."[^schelling] This is sort of what I was trying to do when soliciting—begging for—engagement-or-endorsement of "... Boundaries?" By making the post be about dolphins, I was trying to deny myself too great of a reward _on the gender-politics front_. I _don't_ think it was inappropriately demanding to expect "us" (him) to be correct _about the cognitive function of categorization_. (If not, why pretend to have a "rationality community" at all?) I was _trying_ to be as accomodating as I could, short of just letting him (us?) be wrong.
 
 [^schelling]: _Strategy of Conflict_, Ch. 2, "An Essay on Bargaining"
 
@@ -588,10 +588,10 @@ Ben shared the account of our posse's email campaign with someone, who commented
 
 One might wonder why this was such a big deal to us. Okay, so Yudkowsky had prevaricated about his own philosophy of language for transparently political reasons, and couldn't be moved to clarify in public even after me and my posse spent an enormous amount of effort trying to explain the problem. So what? Aren't people wrong on the internet all the time?
 
-Ben explained: Yudkowsky had set in motion a marketing machine (the "rationalist community") that was continuing to raise funds and demand work from people for below-market rates based on the claim that while nearly everyone else was criminally insane (causing huge amounts of damage due to disconnect from reality, in a way that would be criminal if done knowingly), he, almost uniquely, was not. "Work for me or the world ends badly," basically. If the claim was _true_, it was important to make, and to actually extract that labor. 
+Ben explained: Yudkowsky had set in motion a marketing machine (the "rationalist community") that was continuing to raise funds and demand work from people for below-market rates based on the claim that while nearly everyone else was criminally insane (causing huge amounts of damage due to disconnect from reality, in a way that would be criminal if done knowingly), he, almost uniquely, was not. "Work for me or the world ends badly," basically. If the claim was _true_, it was important to make, and to actually extract that labor.
 
 But we had just falsified to our satisfaction the claim that Yudkowsky was currently sane in the relevant way (which was a _extremely high_ standard, and not a special flaw of Yudkowsky in the current environment). If Yudkowsky couldn't be bothered to live up to his own stated standards or withdraw his validation from the machine he built after we had _tried_ to talk to him privately, then we had a right to talk in public about what we thought was going on.
 
 This wasn't about direct benefit _vs._ harm. This was about what, substantively, the machine and its operators were doing. They claimed to be cultivating an epistemically rational community, while in fact building an army of loyalists.
 
-Ben compared the whole set-up to that of Eliza the spambot therapist in my story ["Blame Me for Trying"](/2018/Jan/blame-me-for-trying/): regardless of the _initial intent_, scrupulous rationalists were paying rent to something claiming moral authority, which had no concrete specific plan to do anything other than run out the clock, maintaining a facsimile of dialogue in ways well-calibrated to continue to generate revenue. Minds like mine wouldn't surive long-run in this ecosystem. If we wanted minds that do "naïve" inquiry instead of playing savvy Kolmogorov games to survive, we needed an interior that justified that level of trust.
+Ben compared the whole set-up to that of Eliza the spambot therapist in my story ["Blame Me for Trying"](/2018/Jan/blame-me-for-trying/): regardless of the _initial intent_, scrupulous rationalists were paying rent to something claiming moral authority, which had no concrete specific plan to do anything other than run out the clock, maintaining a facsimile of dialogue in ways well-calibrated to continue to generate revenue. Minds like mine wouldn't surive long-run in this ecosystem. If we wanted minds that do "naïve" inquiry instead of playing savvy power games to survive, we needed an interior that justified that level of trust.
index e6b0b8d..76677bc 100644 (file)
@@ -67,7 +67,7 @@ So the _New York Times_ implicitly accuses us of being racists, like Charles Mur
 
 It works surprisingly well. I fear my love of Truth is not so great that if I didn't have Something to Protect, I would have happily participated in the cover-up.
 
-As it happens, in our world, the defensive cover-up consists of _throwing me under the bus_. Facing censure from the progressive egregore for being insufficiently progressive, we can't defend ourselves ideologically. (_We_ think we're egalitarians, but progressives won't buy that because we like markets too much.) We can't point to our racial diversity. (Mostly white if not Jewish, with a generous handful of Asians, exactly as you'd expect from chapters 13 and 14 of _The Bell Curve_.) [Subjectively](https://en.wikipedia.org/wiki/Availability_heuristic), I felt like the sex balance got a little better after we hybridized with Tumblr and Effective Alruism (as [contrasted with the old days](/2017/Dec/a-common-misunderstanding-or-the-spirit-of-the-staircase-24-january-2009/)), but survey data doesn't unambiguously back this up.[^survey-data]
+As it happens, in our world, the defensive cover-up consists of _throwing me under the bus_. Facing censure from the progressive egregore for being insufficiently progressive, we can't defend ourselves ideologically. (_We_ think we're egalitarians, but progressives won't buy that because we like markets too much.) We can't point to our racial diversity. (Mostly white if not Jewish, with a handful of East and South Asians, exactly as you'd expect from chapters 13 and 14 of _The Bell Curve_.) [Subjectively](https://en.wikipedia.org/wiki/Availability_heuristic), I felt like the sex balance got a little better after we hybridized with Tumblr and Effective Alruism (as [contrasted with the old days](/2017/Dec/a-common-misunderstanding-or-the-spirit-of-the-staircase-24-january-2009/)), but survey data doesn't unambiguously back this up.[^survey-data]
 
 [^survey-data]: We go from 89.2% male in the [2011 _Less Wrong_ survey](https://www.lesswrong.com/posts/HAEPbGaMygJq8L59k/2011-survey-results) to a virtually unchanged 88.7% male on the [2020 _Slate Star Codex_ survey](https://slatestarcodex.com/2020/01/20/ssc-survey-results-2020/)—although the [2020 EA survey](https://forum.effectivealtruism.org/posts/ThdR8FzcfA8wckTJi/ea-survey-2020-demographics) says only 71% male, so it depends on how you draw the category boundaries of "we."
 
index 547d26a..2a7b3cb 100644 (file)
@@ -13,6 +13,7 @@ But Matt Walsh completely flubs the execution by making it a satire rather than
 Rather than being a silly non-realistic children's-literature grown-up, Johnny's mother is portrayed as being duped by social media and medical authorities. ("But Johnny's mom's phone said it's not just pretend / 'Only a bigot would say that! How dare you offend!'", with angry emoji and inverted Facebook thumbs-up icons bubbling out of her phone into the scene.) We get illustrations of protesters bearing signs saying "Human Walruses Are REAL Walruses", "Literally Walrusphobic", "He/Him/Walrux", _&c_. The worms come in an orange pill-type bottle labeled "Wormones." (Separately, walruses don't eat worms, but that's not the main problem here from a literary perspective.)
 
 [TODO: spoil the plot, and mention the Walsh-as-Zookeeper easter egg]
+[TODO: walrus diet link]
 
 The satirical real-world references (which do not earn the dignity of the word _allusions_) completely ruin the mood, to the extent that I don't think this is really a book _for_ children. (Not even an ideological book for children, meant to socialize them into the correct beliefs.) It's a novelty "children's book" for the brief amusement of ideologically conservative grown-ups.
 
index b6439a0..3bc85d9 100644 (file)
@@ -415,9 +415,9 @@ I linked to Zvi Mowshowitz's post about how [the claim that "everybody knows" so
 
 At this point it was almost 2 _p.m._ (the paragraphs above summarize a larger volume of typing), and Scott mentioned that he wanted to go to the Event Horizon Christmas party, and asked if I wanted to come and continue the discussion there. I assented, and thanked him for his time; it would be really exciting if we could avoid a rationalist civil war. (I thought my "you need accurate models before you can do utilitarianism" philosophy was also near the root of Ben's objections to the EA movement.)
 
-When I arrived at the party, people were doing a reading of [the "Hero Licensing" dialogue epilogue](https://www.lesswrong.com/posts/dhj9dhiwhq3DX6W8z/hero-licensing) to _Inadequate Equilibria_. Yudkowsky himself was playing the part of the Mysterious Stranger in the dialogue. At some point, Scott and I retreated upstairs to continue our discussion. By the end of it, I was at least feeling more assured of Scott's sincerity (rather than him being coerced into not saying anything incriminating over email). Scott said he would edit in a disclaimer note at the end of "... Not Man for the Categories".
+When I arrived at the party, people were doing a reading of [the "Hero Licensing" dialogue epilogue](https://www.lesswrong.com/posts/dhj9dhiwhq3DX6W8z/hero-licensing) to _Inadequate Equilibria_, with Yudkowsky himself was playing the part of the Mysterious Stranger. At some point, Scott and I retreated upstairs to continue our discussion. By the end of it, I was at least feeling more assured of Scott's sincerity (rather than him being coerced into not saying anything incriminating over email). Scott said he would edit in a disclaimer note at the end of "... Not Man for the Categories".
 
-It would have been interesting if I also got the chance to talk to Yudkowsky for a few minutes, but if I did, I wouldn't be allowed to recount any details of that here due to the privacy norm I'm following in this document.
+It would have been interesting if I also got the chance to talk to Yudkowsky for a few minutes, but if I did, I wouldn't be allowed to recount any details of that here due to the privacy norm I'm following in this post.
 
 The rest of the party was nice. People were reading funny GPT-2 quotes from their phones. At one point, conversation happened to zag in a way that let me show off the probability fact I had learned during Math and Wellness Month. A MIRI researcher sympathetically told me that it would be sad if I had to leave the Bay Area, which I thought was nice. There was nothing about the immediate conversational context to suggest that I might have to leave the Bay, but I guess by this point, my existence had become a context.
 
index 3c0b796..4ada27e 100644 (file)
@@ -630,7 +630,7 @@ I started a new thread to complain about the attitude I was seeing (Subject: "No
 
 I wasn't buying the excuse that secret-Keeping practices that wouldn't be OK on Earth were somehow OK on dath ilan, which was asserted by authorial fiat to be sane and smart and benevolent enough to make it work. Or if I couldn't argue with authorial fiat: the reasons why it would be bad on Earth (even if it wouldn't be bad on dath ilan) are reasons why _fiction about dath ilan is bad for Earth_.
 
-And just—back in the 'aughts, Robin Hanson had this really great blog called _Overcoming Bias_. (You probably haven't heard of it.) I wanted that _vibe_ back, of Robin Hanson's blog in 2008—the will to _just get the right answer_, without all this galaxy-brained hand-wringing about who the right answer might hurt.
+And just—back in the 'aughts, Robin Hanson had this really great blog called _Overcoming Bias_. (You probably haven't heard of it, I said.) I wanted that _vibe_ back, of Robin Hanson's blog in 2008—the will to _just get the right answer_, without all this galaxy-brained hand-wringing about who the right answer might hurt.
 
 I would have expected a subculture descended from the memetic legacy of Robin Hanson's blog in 2008 to respond to that tripe about protecting people from being destroyed by the truth as a form of "recognizing independent agency" with something like—
 
index 358ec54..7277b24 100644 (file)
@@ -49,8 +49,12 @@ _ the story of my Feb./Apr. 2017 recent madness [pt. 2]
 it was actually "wander onto the AGI mailing list wanting to build a really big semantic net" (https://www.lesswrong.com/posts/9HGR5qatMGoz4GhKj/above-average-ai-scientists)
 
 With internet available—
+_ standard name/link for 3rd party spoiler effect
+_ kids in cages
+_ "Stop Voting for Nincompoops"
+_ "well, YES" Nash quote-dunk and reply links, and archive.is
 _ archive.is https://somenuanceplease.substack.com/p/actually-i-was-just-crazy-the-whole
-_ my FB comment on the Brennan email
+_ screenshot other Facebook comments
 _ nuclear diplomacy Twitter link
 _ footnote "said that he wishes he'd never published"
 _ Astronomical Waste
@@ -2141,3 +2145,5 @@ https://equilibriabook.com/molochs-toolbox/
 I still had Sasha's sleep mask
 
 "Wilhelm" and Steven Kaas aren't Jewish, I think
+
+I agree that Earth is mired in random junk that caught on (like p-values), but ... so are the rats
index 9daa1cf..1e39ca9 100644 (file)
 02/12/2023,86444\r
 02/13/2023,86692\r
 02/14/2023,86644\r
-02/15/2023,
\ No newline at end of file
+02/15/2023,86916\r
+02/16/2023,87387\r
+02/17/2023,
\ No newline at end of file