Saturday drafting "Sexual Dimorphism" (session 6)
authorM. Taylor Saotome-Westlake <[email protected]>
Sun, 14 Feb 2021 07:10:20 +0000 (23:10 -0800)
committerM. Taylor Saotome-Westlake <[email protected]>
Sun, 14 Feb 2021 07:10:20 +0000 (23:10 -0800)
content/drafts/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
notes/sexual-dimorphism-in-the-sequences-notes.md

index 9959b0b..055b28c 100644 (file)
@@ -633,23 +633,21 @@ _Was_ it a "political" act for me to write about the cognitive function of categ
 
 _Everyone else shot first_. The timestamps back me up here: my ["... To Make Predictions"](/2018/Feb/the-categories-were-made-for-man-to-make-predictions/) (February 2018) was a _response to_ Alexander's ["... Not Man for the Categories"](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/) (November 2014). My philosophy-of-language work on the robot-cult blog (April 2019–January 2021) was (stealthily) _in response to_ Yudkowsky's November 2018 Twitter thread. When I started trying to talk about autogynephilia with all my robot cult friends in 2016, I _did not expect_ to get dragged into a multi-year philosophy-of-language crusade! That was just _one branch_ of the argument-tree that, once begun, I thought should be easy to _definitively settle in public_ (within our robot cult, whatever the _general_ public thinks).
 
-I guess by now the branch is as close to settled as it's going to get? Alexander ended up [adding an edit note to the end of "... Not Man to the Categories" in December 2019](https://archive.is/1a4zV#selection-805.0-817.1), and Yudkowsky would [clarify his position on the philosophy of language in September 2020](https://www.facebook.com/yudkowsky/posts/10158853851009228). So, that's nice, I guess. I will confess to being rather disappointed that the public argument-tree evaluation didn't get much further, much faster? The thing you have understand about this whole debate is—
+I guess by now the branch is as close to settled as it's going to get? Alexander ended up [adding an edit note to the end of "... Not Man to the Categories" in December 2019](https://archive.is/1a4zV#selection-805.0-817.1), and Yudkowsky would [go on to clarify his position on the philosophy of language in September 2020](https://www.facebook.com/yudkowsky/posts/10158853851009228). So, that's nice. But I will confess to being quite disappointed that the public argument-tree evaluation didn't get much further, much faster? The thing you have understand about this whole debate is—
 
-_I need the correct answer in order to decide whether or not to cut my dick off_. As I've said, I _currently_ believe that cutting my dick off would be a _bad_ idea. But that's cost–benefit judgement call based on many _contingent, empirical_ beliefs about the world. I'm obviously in the general _reference class_ of males who are getting their dicks cut off these days, and a lot of them seem to be pretty happy about it! I would be much more likely to go through with transitioning if I believed different things about the world—if I thought my beautiful pure sacred self-identity thing were an intersex condition, if I still believed in my teenage psychological sex differences denialism (such that there would be _axiomatically_ no worries about fitting with "other" women after transitioning), if I were more optimistic about the degree to which HRT and surgeries approximate an actual sex change.
+_I need the correct answer in order to decide whether or not to cut my dick off_. As I've said, I _currently_ believe that cutting my dick off would be a _bad_ idea. But that's cost–benefit judgement call based on many _contingent, empirical_ beliefs about the world. I'm obviously in the general _reference class_ of males who are getting their dicks cut off these days, and a lot of them seem to be pretty happy about it! I would be much more likely to go through with transitioning if I believed different things about the world—if I thought my beautiful pure sacred self-identity thing were a brain-intersex condition, or if I still believed in my teenage psychological-sex-differences denialism (such that there would be _axiomatically_ no worries about fitting with "other" women after transitioning), or if I were more optimistic about the degree to which HRT and surgeries approximate an actual sex change.
 
+In that November 2018 Twitter thread, [Yudkowsky wrote](https://archive.is/y5V9i):
 
-[TODO: 
+> _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act."
 
-if I were dumb enough to believe Yudkowsky's insinuation that pronouns don't have truth conditions, I might have made a worse decision
+This seems to suggest that gender pronouns in the English language as currently spoken don't have effective truth conditions. I think this is false _as a matter of cognitive science_. If someone told you, "Hey, you should come meet my friend at the mall, she is really cool and I think you'll like her," and then the friend turned out to look like me (as I am now), _you would be surprised_. (Even if people in Berkeley would socially punish you for _admitting_ that you were surprised.) The "she ... her" pronouns would prompt your brain to _predict_ that the friend would appear to be female, and that prediction would be _falsified_ by someone who looked like me (as I am now). Pretending that the social-norms dispute is about chromosomes was a _bullshit_ [weakmanning](https://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/) move on the part of Yudkowsky, [who had once written that](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence) "[t]o argue against an idea honestly, you should argue against the best arguments of the strongest advocates[;] [a]rguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates." Thanks to the skills I learned from Yudkowsky's _earlier_ writing, I wasn't dumb enough to fall for it, but we can imagine someone otherwise similar to me who was, who might have thereby been misled into making worse life decisions.
 
-https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence
+If this "rationality" stuff is useful for _anything at all_, you would _expect_ it to be useful for _practical life decisions_ like _whether or not I should cut my dick off_. 
 
-> To argue against an idea honestly, you should argue against the best arguments of the strongest advocates. Arguing against weaker advocates proves _nothing_, because even the strongest idea will attract weak advocates.
-
-If rationality is useful for anything, it should be useful for practical life decisions like this
-
-]
+In order to get the _right answer_ to that policy question (whatever the answer turns out to be), you need to _at minimum_ be able to get the _right answer_ on related fact-questions like "Is late-onset gender dysphoria in males an intersex condition?" (answer: no) and related philosophy-questions like "Can we arbitrarily redefine words such as 'woman' without adverse effects on our cognition?" (answer: no).
 
+At the cost of _wasting three years of my life_, we _did_ manage to get the philosophy question right! Again, that's nice. But compared to the Sequences-era dreams of changing the world with a Second Scientific Revolution, it's too little, too slow, too late. If our public discourse is going to be this aggressively optimized for _tricking me into cutting my dick off_ (independently of the empirical cost–benefit trade-off determining whether or not I should cut my dick off), that kills the whole project for me. I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?
 
 Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
 
@@ -665,23 +663,23 @@ Someone asked me: "If we randomized half the people at [OpenAI](https://openai.c
 
 But the thing I'm objecting to is a lot more fundamental than the specific choice of pronoun convention, which obviously isn't going to be uniquely determined. Turkish doesn't have gender pronouns, and that's fine. Naval ships traditionally take feminine pronouns in English, and it doesn't confuse anyone into thinking boats have a womb. [Many other languages are much more gendered than English](https://en.wikipedia.org/wiki/Grammatical_gender#Distribution_of_gender_in_the_world's_languages) (where pretty much only third-person singular pronouns are at issue). The conventions used in one's native language probably _do_ [color one's thinking to some extent](/2020/Dec/crossing-the-line/)—but when it comes to that, I have no reason to expect the overall design of English grammar and vocabulary "got it right" where Spanish or Russian "got it wrong."
 
-What matters isn't the specific object-level choice of pronoun or bathroom conventions; what matters is having a culture where people _viscerally care_ about minimizing the expected squared error of our probabilistic predictions, even at the expense of people's feelings—_especially_ at the expense of people's feelings.
+What matters isn't the specific object-level choice of pronoun or bathroom conventions; what matters is having a culture where people _viscerally care_ about minimizing the expected squared error of our probabilistic predictions, even at the expense of people's feelings—[_especially_ at the expense of people's feelings](http://zackmdavis.net/blog/2016/09/bayesomasochism/).
 
 I think looking at [our standard punching bag of theism](https://www.lesswrong.com/posts/dLL6yzZ3WKn8KaSC3/the-uniquely-awful-example-of-theism) is a very fair comparison. Religious people aren't _stupid_. You can prove theorems about the properties of [Q-learning](https://en.wikipedia.org/wiki/Q-learning) or [Kalman filters](https://en.wikipedia.org/wiki/Kalman_filter) at a world-class level without encountering anything that forces you to question whether Jesus Christ died for our sins. But [beyond technical mastery of one's narrow specialty](https://www.lesswrong.com/posts/N2pENnTPB75sfc9kb/outside-the-laboratory), there's going to be some competence threshold in ["seeing the correspondence of mathematical structures to What Happens in the Real World"](https://www.lesswrong.com/posts/sizjfDgCgAsuLJQmm/reply-to-holden-on-tool-ai) that _forces_ correct conclusions. I actually _don't_ think you can be a believing Christian and invent [the concern about consequentialists embedded in the Solomonoff prior](https://ordinaryideas.wordpress.com/2016/11/30/what-does-the-universal-prior-actually-look-like/).
 
-But the _same_ general parsimony-skill that rejects belief in an epiphenomenal "God of the gaps" that makes no particular predictions, _also_ rejects belief in an epiphenomenal "gender of the gaps" that makes no particular predictions.
+But the _same_ general parsimony-skill that rejects belief in an epiphenomenal "God of the gaps" that is verbally asserted to exist but will never the threat of being empirically falsified, _also_ rejects belief in an epiphenomenal "gender of the gaps" that is verbally asserted to exist but will never face the threat of being empirically falsified.
 
 In a world where sexual dimorphism didn't exist, where everyone was a hermaphrodite, then "gender" wouldn't exist, either.
 
 In a world where we _actually had_ magical perfect sex-change technology of the kind described in "Changing Emotions", then people who wanted to change sex would do so, and everyone else would use the corresponding language (pronouns and more), _not_ as a courtesy, _not_ to maximize social welfare, but because it _straightforwardly described reality_.
 
-In a world where we don't have magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods ... [TODO: four clusters]
+In a world where we don't _have_ magical perfect sex-change technology, but we _do_ have hormone replacement therapy and various surgical methods, you actually end up with _four_ clusters: females, males, masculinized females (a.k.a. trans men), and feminized males (a.k.a. trans women). 
 
 [TODO: explain that "I don't do policy."]
 
 The thing I'm objecting to is this _culture of narcissistic Orwellian mind games_ that thinks people have the right to _dictate other people's model of reality_.
 
-[TODO: Jessica and Sam should exist, but this culture is nuts
+[TODO: my friends should exist, but this culture is nuts
 
 https://twitter.com/caraesten/status/1092472430465929216
 > damn one extremely bad way to start my day is having the receptionist at slack say I look like a male celebrity
index a4c8008..48a75f0 100644 (file)
@@ -43,6 +43,7 @@ What happens when every sensitive bookish male who thinks [it might be cool to b
 Anne Lawrence described autogynephiles as ["men who love women and want to become what they love."](/papers/lawrence-becoming_what_we_love.pdf) But it's worse than that. We're men who love what we _wish_ women were, and want to become _that_.
 
 
+
 * "The Opposite Sex" 
 
 * EY was right about "men need to think about themselves _as men_" (find cite)
@@ -53,7 +54,6 @@ https://www.lesswrong.com/posts/qCsxiojX7BSLuuBgQ/the-super-happy-people-3-8
 [TODO: my pseudobisexual moments (it's California in the year 2015)
 our analogues would make a good couple in a nearby alternate universe where at least one of us is female. "Exactly one," he said. "It's California in the year 2015," I said.]
 
-
 https://fairplayforwomen.com/pronouns/
 
 "people who have sexual fetishes that can't possibly be realized using existing technology [...] like the guy who gets on by entropy decreasing in a closed system"
@@ -65,9 +65,6 @@ Normal straight men also have positive-valence thoughts about women when they're
 
 NYT hit piece https://archive.is/0Ghdl
 
-
-https://www.lesswrong.com/posts/sXHQ9R5tahiaXEZhR/algorithmic-intent-a-hansonian-generalized-anti-zombie
-
 ------
 
 no safe defense https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science
@@ -321,7 +318,7 @@ Perhaps so. But back in 2009, **we did not anticipate that _whether or not I sho
 
 **To be fair, it's not obvious that I _shouldn't_ cut my dick off!**
 
-I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts/Q8evewZW5SeidLdbA/your-price-for-joining) particularly high here?
+
 
 [cruelty to ordinary people, optimized to confuse and intimidate people trying to use language to reason about the concept of biological sex]