poke at "Sexual Dimorphism"
authorM. Taylor Saotome-Westlake <[email protected]>
Tue, 1 Dec 2020 22:32:37 +0000 (14:32 -0800)
committerM. Taylor Saotome-Westlake <[email protected]>
Tue, 1 Dec 2020 22:32:37 +0000 (14:32 -0800)
content/drafts/sexual-dimorphism-in-the-sequences-in-relation-to-my-gender-problems.md
notes/sexual-dimorphism-in-the-sequences-notes.md

index b5a00db..682cf2e 100644 (file)
@@ -142,6 +142,10 @@ Vassar slapping me down in June 2008 (on the same day that I crossdressed in fro
 
 Sex differences would come up a couple more times in one of the last Sequences, on "Fun Theory"—speculations on how life could be truly _good_ if the world were superintelligently optimized for human values, in contrast to the cruelty and tragedy of our precarious existence [in a world shaped only by blind evolutionary forces](https://www.lesswrong.com/posts/sYgv4eYH82JEsTD34/beyond-the-reach-of-god).
 
+
+
+
+
 [TODO: rewrite/expand description here—"Sympathetic Minds" first, then bridge to "Failed Utopia #4-2"]
 [TODO: mention that I'm responsible for the protagonist's name getting changed]
 
@@ -219,7 +223,7 @@ Daphna Joel _et al._ [argue](https://www.pnas.org/content/112/50/15468) [that](h
 
 Sex differences in the brain are like sex differences in the skeleton: anthropologists can tell female and male skeletons apart (the [pelvis is shaped differently](https://johnhawks.net/explainer/laboratory/sexual-dimorphism-pelvis), for obvious reasons), and [machine-learning models can see very reliable differences that human radiologists can't](/papers/yune_et_al-beyond_human_perception_sexual_dimorphism_in_hand_and_wrist_radiographs.pdf), but neither sex has entire _bones_ that the other doesn't, and the same is true of brain regions. (The evopsych story about complex adaptations being universal-up-to-sex suggests that sex-specific bones or brain regions should be _possible_, but in a bit of _relative_ good news for antisexism, apprently evolution didn't need to go that far. Um, in humans—a lot of other mammals actually have [a penis bone](https://en.wikipedia.org/wiki/Baculum).)
 
-Maybe this should just look like supplementary Statistics Details brushed over some basic facts of human existence that everyone knows? I'm a pretty weird guy, in more ways than one. I am not prototypically masculine. Most men are not like me. If I'm allowed to cherry-pick what measurements to take, I can name ways in which my mosaic is more female-typical than male-typical. (For example, I'm _sure_ I'm above the female mean in [Big Five Neuroticism](https://en.wikipedia.org/wiki/Big_Five_personality_traits).) ["[A] weakly negative correlation can be mistaken for a strong positive one with a bit of selective memory."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences) But "weird" represents a much larger space of possibilities than "normal", much as [_nonapples_ are a less cohesive category than _apples_](https://www.lesswrong.com/posts/2mLZiWxWKZyaRgcn7/selling-nonapples). If you _sum over_ all of my traits, everything that makes me, _me_—it's going to be a point in the _male_ region of the existing, unremediated, genderspace. In the course of _being myself_, I'm going to do more male-typical things than female-typical things, not becuase I'm _trying_ to be masculine (I'm not), and not because I "identify as" male (I don't—or I wouldn't, if someone could give me a straight answer as to what this "identifying as" operation is supposed to consist of), but because I literally in-fact am male whether or not I like it and whether or not I _notice_ all the little details that implies.
+Maybe this should just look like supplementary Statistics Details brushed over some basic facts of human existence that everyone knows? I'm a pretty weird guy, in more ways than one. I am not prototypically masculine. Most men are not like me. If I'm allowed to cherry-pick what measurements to take, I can name ways in which my mosaic is more female-typical than male-typical. (For example, I'm _sure_ I'm above the female mean in [Big Five Neuroticism](https://en.wikipedia.org/wiki/Big_Five_personality_traits).) ["[A] weakly negative correlation can be mistaken for a strong positive one with a bit of selective memory."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences) But "weird" represents a much larger space of possibilities than "normal", much as [_nonapples_ are a less cohesive category than _apples_](https://www.lesswrong.com/posts/2mLZiWxWKZyaRgcn7/selling-nonapples). If you _sum over_ all of my traits, everything that makes me, _me_—it's going to be a point in the _male_ region of the existing, unremediated, genderspace. In the course of _being myself_, I'm going to do more male-typical things than female-typical things, not becuase I'm _trying_ to be masculine (I'm not), and not because I "identify as" male (I don't—or I wouldn't, if someone could give me a straight answer as to what this "identifying as" operation is supposed to consist of), but because I literally in-fact am male in the same sense that male chimpanzees or male mice are male, whether or not I like it (I don't), and whether or not I _notice_ all the little details that implies (I probably don't).
 
 Okay, maybe I'm _not_ completely over my teenage religion of psychological sex differences denialism?—that belief still feels uncomfortable to put my weight on. I would _prefer_ to believe that there are women who are relevantly "like me" with respect to some fair (not gerrymandered) metric on personspace. But, um ... it's not completely obvious whether I actually know any? When I look around me—most of the people in my robot cult (and much more so if you look the core of old-timers from the _Overcoming Bias_ days, rather than the greater Berkeley "community" of today) are male. Most of the people in my open-source programming scene are male. These days, [most of the _women_](/2020/Nov/survey-data-on-cis-and-trans-women-among-haskell-programmers/) in [my open-source programming scene](/2017/Aug/interlude-vii/) are male. Am I not supposed to _notice_? I could _assert_ that it's all down to socialization and stereotyping and self-fulfilling prophecies—and I know that _some_ of it is. (Self-fulfilling prophecies [are coordination equilibria](/2020/Jan/book-review-the-origins-of-unfairness/).) But I still want to speculate that the nature of my X factor—the things about my personality that let me write the things I do even though I'm [objectively not that smart](/images/wisc-iii_result.jpg) compared to some of my robot-cult friends—is a pattern of mental illness that could realistically only occur in males. (Yudkowsky: ["It seems to me that male teenagers especially have something like a _higher cognitive temperature_, an ability to wander into strange places both good and bad."](https://www.lesswrong.com/posts/xsyG7PkMekHud2DMK/of-gender-and-rationality)) I can't assert _with a straight face_ that all the gaps _must_ vanish after the revolution, because _I've read the literature_ and can tell you several observations about chimps and [congenital adrenal hyperplasia](/images/cah_diffs_table.png) that make that seem _relatively unlikely_.
 
@@ -318,10 +322,16 @@ Or, you might think that if the desire is just a confusion in male sexuality, ma
 
 But, empirically, I did grow (small) breasts as a result of [my five-month HRT experiment](/2017/Sep/hormones-day-156-developments-doubts-and-pulling-the-plug-or-putting-the-cis-in-decision/), and I think it's actually been a (small) quality-of-life improvement for approximately the reasons I expected going in. I just—like the æsthetic?—and wanted it to be part of _my_ æsthetic, and now it is, and I don't quite remember what my chest was like before, kind of like how I don't quite remember what it was like to have boy-short hair before I grew out my signature beautiful–beautiful ponytail. (Though I'm _still_ [kicking myself for not](/2017/Nov/laser-1/) taking a bare-chested "before" photo.) I don't see any particular reason to believe this experience wouldn't replicate all the way down the [slope of interventions](/2017/Jan/the-line-in-the-sand-or-my-slippery-slope-anchoring-action-plan/).
 
-Fundamentally, I think I can make _better decisions_ for myself by virtue of having an accurate model of what's really going on with me—a model that uses all these fine mental distinctions using the everything-is-a-vector-space skill, such that I can talk about my paraphilic desire to be shaped like a woman without wanting to actually be a woman, similarly to how the _verthandi_ in "Failed Utopia #4-2" aren't actually women.
+Fundamentally, I think I can make _better decisions_ for myself by virtue of having an accurate model of what's really going on with me—a model that uses all these fine mental distinctions using the everything-is-a-vector-space skill, such that I have the language to talk about my obsessive paraphilic desire to be shaped like a woman without wanting to actually be a woman, similarly to how the _verthandi_ in "Failed Utopia #4-2" aren't actually women.
 
 If the _actual_ desire implemented in one's actual brain in the real physical universe takes the form of (roughly translating from desire into English) "You know, I kind of want my own breasts (_&c._)", it may be weird and perverted to _admit_ this and act on it (!!)—but would it be any _less_ weird and perverted to act on it under the false (in my case) pretense of an invisible female gender identity? If you know what the thing is, can it be any worse to just _own it_?
 
+If we _actually had_ magical perfect transformation technology or something close to it—if you could grow a female body in a vat, and transfer my brain into it, and had a proven solution to the motor-mapping and skull-size issues—if it cost $200,000, I would take out a bank loan and _do it_, and live happily ever after. 
+
+(Though I think I'd call myself a transwoman—one word, for the same reason the _verthandi_ in "Failed Utopia #4-2" got their own word. I currently write "trans woman", two words, as a strategic concession to the shibboleth-detectors of my target audience: I don't want to to _prematurely_ scare off progressive-socialized readers on account of mere orthography, when what I actually have to say is already disturbing enough.)
+
+Since we _don't_ have that, I don't think [TODO: finish pargraph ...]
+
 Even if I never took the beautiful pure sacred self identity thing too literally, owning it for what it really is—an illusion, the scintillating but ultimately untrue thought—takes a different tone in the harsh light of my deconversion from psychological sex differences denialism. In "Changing Emotions", Yudkowsky wrote—
 
 > If I fell asleep and woke up as a true woman—not in body, but in brain—I don't think I'd call her "me". The change is too sharp, if it happens all at once.
index e54227d..bb773fe 100644 (file)
@@ -128,7 +128,13 @@ inference by analogy—even if not all trans women are exactly like me, at least
 https://www.lesswrong.com/posts/XYCEB9roxEBfgjfxs/the-scales-of-justice-the-notebook-of-rationality
 writes down all the facts that aren't on anyone's side.
 
-"gay and trans"
+In the political world, "gay and trans"—the identity-modifiers "stack".
+
+Etiologically, people who are "gay and trans" are ... straight.
+
+
+not needing permission from another person
+
 
 ------
 
@@ -142,7 +148,7 @@ writes down all the facts that aren't on anyone's side.
 
 
 https://archive.is/7Wolo
-> the massive correlation between exposure to Yudkowsky’s writings and being a trans woman (can’t bother to do the calculations but the connection is absurdly strong)
+> the massive correlation between exposure to Yudkowsky's writings and being a trans woman (can't bother to do the calculations but the connection is absurdly strong)
 Namespace's point about the two EYs
 
 link back to Murray review: can't oppress people on the basis of sex if sex _doesn't exist_
@@ -153,7 +159,7 @@ https://www.lesswrong.com/posts/vjmw8tW6wZAtNJMKo/which-parts-are-me
 
 If we _actually had_ the magical perfect sex change technology described in "Changing Emotions"—if it cost $200,000, I would take out a bank loan and _do it_, and live happily ever after.
 
-(Though I'd call myself a transwoman—one word, for the same reason the _verthandi_ in "Failed Utopia #4-2" got their own word. I currently write "trans woman", two words, as a strategic concession to the shibboleth-detectors of my target audience:[^two-words] I don't want to to _prematurely_ scare off progressive-socialized readers on account of mere orthography, when what I actually have to say is already disturbing enough.)
+
 
 people like me being incentivized to identify as part of a political pressure group that attempts to leverage claims of victimhood into claims on power
 
@@ -285,15 +291,9 @@ If we _actually had_ the magical perfect sex change technology described in "Cha
 I definitely don't want to call (say) my friend "Irene" a man. That would be crazy! Because **her transition _actually worked_.** Because it actually worked _on the merits_. _Not_ because I'm _redefining concepts in order to be nice to her_. When I look at her, whatever algorithm my brain _ordinarily_ uses to sort people into "woman"/"man"/"not sure" buckets, returns "woman."
 
 
-Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
-
-But the _reason_ it seemed _at all_ remotely plausible that our little robot cult could be pivotal in creating Utopia forever was _not_ "[Because we're us](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/), the world-saving good guys", but rather _because_ we were going to discover and refine the methods of _systematically correct reasoning_.
 
-**If you're doing systematically correct reasoning, you should be able to get the right answer even when the question _doesn't matter_.** Obviously, the safety of the world does not _directly_ depend on being able to think clearly about trans issues. In the same way, the safety of a coal mine for humans does not _directly_ depend on [whether it's safe for canaries](https://en.wiktionary.org/wiki/canary_in_a_coal_mine): the dead canaries are just _evidence about_ properties of the mine relevant to human health.
 
-The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2019 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity as a cost), also can't get heliocentrism right in 1632 _for the same reason_—and I really doubt it can get AI alignment theory right in 2039.
 
-If the people _marketing themselves_ as the good guys who are going to save the world using systematically correct reasoning are _not actually interested in doing systematically correct reasoning_ (because systematically correct reasoning leads to two or three conclusions that are politically "impossible" to state clearly in public, and no one has the guts to [_not_ shut up and thereby do the politically impossible](https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible)), that's arguably _worse_ than the situation where "the community" _qua_ community doesn't exist at all.
 
 Perhaps so. But back in 2009, **we did not anticipate that _whether or not I should cut my dick off_ would _become_ a politicized issue.**
 
@@ -304,3 +304,33 @@ I don't think I'm setting [my price for joining](https://www.lesswrong.com/posts
 [cruelty to ordinary people, optimized to confuse and intimidate people trying to use language to reason about the concept of biological sex]
 
 https://medium.com/@barrakerr/pronouns-are-rohypnol-dbcd1cb9c2d9
+
+
+
+We want words that map onto the structure of things in the word: if everyone were a hermaphrodite 
+
+
+
+
+Someone asked me: "Wouldn't it be embarrassing if the community solved Friendly AI and went down in history as the people who created Utopia forever, and you had rejected it because of gender stuff?"
+
+But the _reason_ it seemed _at all_ remotely plausible that our little robot cult could be pivotal in creating Utopia forever was _not_ "[Because we're us](http://benjaminrosshoffman.com/effective-altruism-is-self-recommending/), the world-saving good guys", but rather _because_ we were going to discover and refine the methods of _systematically correct reasoning_.
+
+If you're doing systematically correct reasoning, you should be able to get the right answer even when the question _doesn't matter_. Obviously, the safety of the world does not _directly_ depend on being able to think clearly about trans issues. Similarly, the safety of a coal mine for humans does not _directly_ depend on [whether it's safe for canaries](https://en.wiktionary.org/wiki/canary_in_a_coal_mine): the dead canaries are just _evidence about_ properties of the mine relevant to human health. (The causal graph is the fork "canary-death ← mine-gas → human-danger" rather than the direct link "canary-death → human-danger".)
+
+The "discourse algorithm" (the collective generalization of "cognitive algorithm") that can't just _get this shit right_ in 2020 (because being out of step with the reigning Bay Area ideological fashion is deemed too expensive by a consequentialism that counts unpopularity as a cost), also can't get heliocentrism right in 1632 _for the same reason_—and I really doubt it can get AI alignment theory right in 2039.
+
+If the people _marketing themselves_ as the good guys who are going to save the world using systematically correct reasoning are _not actually interested in doing systematically correct reasoning_ (because systematically correct reasoning leads to two or three conclusions that are politically "impossible" to state clearly in public, and no one has the guts to [_not_ shut up and thereby do the politically impossible](https://www.lesswrong.com/posts/nCvvhFBaayaXyuBiD/shut-up-and-do-the-impossible)), that's arguably _worse_ than the situation where "the community" _qua_ community doesn't exist at all.
+
+Someone asked me: "If we randomized half the people at [OpenAI](https://openai.com/) to use trans pronouns one way, and the other half to use it the other way, do you think they would end up with significantly different productivity?"
+
+[it's not about pronouns; it's about a culture where people have property rights over other people's models of them]
+
+
+
+I think the comparison to [our standard punching bag of theism](https://www.lesswrong.com/posts/dLL6yzZ3WKn8KaSC3/the-uniquely-awful-example-of-theism) is fair. Religious people aren't _stupid_. 
+
+
+
+
+I don't _want_ people to have to doublethink around their perceptions of me