long confrontation 4: drafting object-level reply in separate buffer
authorM. Taylor Saotome-Westlake <[email protected]>
Sat, 23 Jul 2022 16:49:06 +0000 (09:49 -0700)
committerM. Taylor Saotome-Westlake <[email protected]>
Sat, 23 Jul 2022 17:39:04 +0000 (10:39 -0700)
This file was erroneously neglected to be checked in, in a previous
commit.

The next scratcher box is "HEART".

notes/a-hill-twitter-reply.md [new file with mode: 0644]

diff --git a/notes/a-hill-twitter-reply.md b/notes/a-hill-twitter-reply.md
new file mode 100644 (file)
index 0000000..226126f
--- /dev/null
@@ -0,0 +1,226 @@
+So, now having a Twitter account, I was browsing Twitter in the bedroom at the rental house for the dayjob retreat, when I happened to come across [this thread by @ESYudkowsky](https://twitter.com/ESYudkowsky/status/1067183500216811521):
+
+> Some people I usually respect for their willingness to publicly die on a hill of facts, now seem to be talking as if pronouns are facts, or as if who uses what bathroom is necessarily a factual statement about chromosomes. Come on, you know the distinction better than that!
+>
+> _Even if_ somebody went around saying, "I demand you call me 'she' and furthermore I claim to have two X chromosomes!", which none of my trans colleagues have ever said to me by the way, it still isn't a question-of-empirical-fact whether she should be called "she". It's an act.
+>
+> In saying this, I am not taking a stand for or against any Twitter policies. I am making a stand on a hill of meaning in defense of validity, about the distinction between what is and isn't a stand on a hill of facts in defense of truth.
+>
+> I will never stand against those who stand against lies. But changing your name, asking people to address you by a different pronoun, and getting sex reassignment surgery, Is. Not. Lying. You are _ontologically_ confused if you think those acts are false assertions.
+
+Some of the replies tried explain the problem—and Yudkowsky kept refusing to understand:
+
+> Using language in a way _you_ dislike, openly and explicitly and with public focus on the language and its meaning, is not lying. The proposition you claim false (chromosomes?) is not what the speech is meant to convey—and this is known to everyone involved, it is not a secret.
+
+Repeatedly:
+
+> You're mistaken about what the word means to you, I demonstrate thus: https://en.wikipedia.org/wiki/XX_male_syndrome
+>
+> But even ignoring that, you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning.
+
+Dear reader, this is the moment where I _flipped the fuck out_. If the "rationalists" didn't [click](https://www.lesswrong.com/posts/R3ATEWWmBhMhbY2AL/that-magical-click) on the autogynephilia thing, that was disappointing, but forgivable. If the "rationalists", on Scott Alexander's authority, were furthermore going to get our own philosophy of language wrong over this, that was—I don't want to say _forgivable_ exactly, but it was—tolerable. I had learned from my misadventures the previous year that I had been wrong to trust "the community" as a reified collective and put it on a pedastal—that had never been a reasonable mental stance in the first place.
+
+But trusting Eliezer Yudkowsky—whose writings, more than any other single influence, had made me who I am—_did_ seem reasonable. If I put him on a pedastal, it was because he had earned the pedastal, for supplying me with my criteria for how to think—including, as a trivial special case, how to think about what things to put on pedastals.
+
+So if the rationalists were going to get our own philosophy of language wrong over this _and Eliezer Yudkowsky was in on it_ (!!!), that was intolerable. This "hill of meaning in defense of validity" proclamation was just such a striking contrast to the Eliezer Yudkowsky I remembered—the Eliezer Yudkowsky whom I had variously described as having "taught me everything I know" and "rewritten my personality over the internet"—who didn't hesitate to criticize uses of language that he thought were failing to carve reality at the joints, even going so far as to [call them "wrong"](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong):
+
+> [S]aying "There's no way my choice of X can be 'wrong'" is nearly always an error in practice, whatever the theory. You can always be wrong. Even when it's theoretically impossible to be wrong, you can still be wrong. There is never a Get-Out-Of-Jail-Free card for anything you do. That's life.
+
+[Similarly](https://www.lesswrong.com/posts/d5NyJ2Lf6N22AD9PB/where-to-draw-the-boundary):
+
+> Once upon a time it was thought that the word "fish" included dolphins. Now you could play the oh-so-clever arguer, and say, "The list: {Salmon, guppies, sharks, dolphins, trout} is just a list—you can't say that a list is _wrong_. I can prove in set theory that this list exists. So my definition of _fish_, which is simply this extensional list, cannot possibly be 'wrong' as you claim."
+>
+> Or you could stop playing nitwit games and admit that dolphins don't belong on the fish list.
+>
+> You come up with a list of things that feel similar, and take a guess at why this is so. But when you finally discover what they really have in common, it may turn out that your guess was wrong. It may even turn out that your list was wrong.
+>
+> You cannot hide behind a comforting shield of correct-by-definition. Both extensional definitions and intensional definitions can be wrong, can fail to carve reality at the joints.
+
+One could argue the "Words can be wrong when your definition draws a boundary around things that don't really belong together" moral doesn't apply to Yudkowsky's new Tweets, which only mentioned pronouns and bathroom policies, not the [extensions of common nouns](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions).
+
+But this seems pretty unsatifying in the context of his claim to ["not [be] taking a stand for or against any Twitter policies"](https://twitter.com/ESYudkowsky/status/1067185907843756032). One of the Tweets that had recently led to radical feminist Meghan Murphy getting [kicked off the platform](https://quillette.com/2018/11/28/twitters-trans-activist-decree/) read simply, ["Men aren't women tho."](https://archive.is/ppV86)
+
+If the extension of common words like 'woman' and 'man' is an issue of epistemic importance that rationalists should care about, then presumably so is Twitter's anti-misgendering policy—and if it _isn't_ (because you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning) then I'm not sure what's _left_ of the "Human's Guide to Words" sequence if the [37-part grand moral](https://www.lesswrong.com/posts/FaJaCgqBKphrDzDSj/37-ways-that-words-can-be-wrong) needs to be retracted.
+
+I think it _is_ standing in defense of truth if have an _argument_ for why my preferred word usage does a better job at "carving reality at the joints", and the one bringing my usage explicitly into question doesn't have such an argument. As such, I didn't see the _practical_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning", and "I can define a word any way I want." About which, a previous Eliezer Yudkowsky had written:
+
+> ["It is a common misconception that you can define a word any way you like. [...] If you believe that you can 'define a word any way you like', without realizing that your brain goes on categorizing without your conscious oversight, then you won't take the effort to choose your definitions wisely."](https://www.lesswrong.com/posts/3nxs2WYDGzJbzcLMp/words-as-hidden-inferences)
+>
+> ["So that's another reason you can't 'define a word any way you like': You can't directly program concepts into someone else's brain."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["When you take into account the way the human mind actually, pragmatically works, the notion 'I can define a word any way I like' soon becomes 'I can believe anything I want about a fixed set of objects' or 'I can move any object I want in or out of a fixed membership test'."](https://www.lesswrong.com/posts/HsznWM9A7NiuGsp28/extensions-and-intensions)
+>
+> ["There's an idea, which you may have noticed I hate, that 'you can define a word any way you like'."](https://www.lesswrong.com/posts/i2dfY65JciebF3CAo/empty-labels)
+>
+> ["And of course you cannot solve a scientific challenge by appealing to dictionaries, nor master a complex skill of inquiry by saying 'I can define a word any way I like'."](https://www.lesswrong.com/posts/y5MxoeacRKKM3KQth/fallacies-of-compression)
+>
+> ["Categories are not static things in the context of a human brain; as soon as you actually think of them, they exert force on your mind. One more reason not to believe you can define a word any way you like."](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences)
+>
+> ["And people are lazy. They'd rather argue 'by definition', especially since they think 'you can define a word any way you like'."](https://www.lesswrong.com/posts/yuKaWPRTxZoov4z8K/sneaking-in-connotations)
+>
+> ["And this suggests another—yes, yet another—reason to be suspicious of the claim that 'you can define a word any way you like'.  When you consider the superexponential size of Conceptspace, it becomes clear that singling out one particular concept for consideration is an act of no small audacity—not just for us, but for any mind of bounded computing power."](https://www.lesswrong.com/posts/82eMd5KLiJ5Z6rTrr/superexponential-conceptspace-and-simple-words)
+>
+> ["I say all this, because the idea that 'You can X any way you like' is a huge obstacle to learning how to X wisely. 'It's a free country; I have a right to my own opinion' obstructs the art of finding truth. 'I can define a word any way I like' obstructs the art of carving reality at its joints. And even the sensible-sounding 'The labels we attach to words are arbitrary' obstructs awareness of compactness."](https://www.lesswrong.com/posts/soQX8yXLbKy7cFvy8/entropy-and-short-codes)
+>
+> ["One may even consider the act of defining a word as a promise to \[the\] effect [...] \[that the definition\] will somehow help you make inferences / shorten your messages."](https://www.lesswrong.com/posts/yLcuygFfMfrfK8KjF/mutual-information-and-density-in-thingspace)
+
+
+
+
+
+
+
+
+
+—and would be unforgivable if it weren't so _inexplicable_.
+
+... not _actually_ inexplicable. There was, in fact, an obvious explanation: that Yudkowsky was trying to bolster his reputation amongst progressives by positioning himself on the right side of history, and was tailoring a fake rationality lesson to suit that goal. But _Eliezer Yudkowsky wouldn't do that_. I had to assume this was a honest mistake.
+
+At least, a _pedagogy_ mistake. If Yudkowsky _just_ wanted to make a politically neutral technical point about the difference between fact-claims and policy claims _without_ "picking a side" in the broader cultural war dispute, these Tweets did a very poor job of it. I of course agree that pronoun usage conventions, and conventions about who uses what bathroom, are not, themselves, factual assertions about sex chromosomes in particular. I'm not saying that Yudkowsky made a false statement there. Rather, I'm saying that it's _bizarre_ to condescendingly point this out _as if it were the crux of contemporary trans-rights debates_. Conservatives and gender-critical feminists _know_ that trans-rights advocates aren't falsely claiming that trans women have XX chromosomes. But the question of what categories epistemically "carve reality at the joints", is _not unrelated_ to the question of which categories to use in policy decisions: the _function_ of sex-segrated bathrooms is to protect females from males, where "females" and "males" are natural clusters in configuration space that it makes sense to want words to refer to.
+
+Even if the thread only explicitly mentioned pronouns and not the noun "woman", in practice, and in the context of elite intellectual American culture in which "trans women are women" is dogma, I don't see any _meaningful_ difference between "you're not standing in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning" and "I can define the word 'woman' any way I want." (About which, the Yudkowsky of 2008 had some harsh things to say, as excerpted above.) It's hard to read the Tweets Yudkowsky published as anything other than an attempt to intimidate and delegitimize people who want to use language to reason about sex rather than gender identity. [For example](https://twitter.com/ESYudkowsky/status/1067490362225156096), deeper in the thread, Yudkowsky wrote:
+
+> The more technology advances, the further we can move people towards where they say they want to be in sexspace. Having said this we've said all the facts. Who competes in sports segregated around an Aristotelian binary is a policy question (that I personally find very humorous).
+
+Sure, _in the limit of arbitrarily advanced technology_, everyone could be exactly where they wanted to be in sexpsace. Having said this, we have _not_ said all the facts relevant to decisionmaking in our world, where _we do not have arbitrarily advanced technology_. As Yudkowsky [acknowledges in the previous Tweet](https://twitter.com/ESYudkowsky/status/1067488844122021888), "Hormone therapy changes some things and leaves others constant." The existence of HRT does not take us into the Glorious Transhumanist Future where everyone is the sex they say they are.
+
+Rather, previously sexspace had two main clusters (normal females and males) plus an assortment of tiny clusters corresponding to various [disorders of sex development](https://en.wikipedia.org/wiki/Disorders_of_sex_development), and now it has two additional tiny clusters: females-on-masculinizing-HRT and males-on-feminizing-HRT. Certainly, there are situations where you would want to use "gender" categories that use the grouping {females, males-on-feminizing-HRT} and {males, females-on-masculinizing-HRT}.
+
+But the _reason_ for having sex-segregated sports leagues is because the sport-relevant multivariate trait distributions of female bodies and male bodies are quite different.
+
+[TODO: relevance of multivariate—
+
+Different traits have different relevance to different sports; the fact that it's apples-to-oranges is _why_ women do better in ultraswimming—that competition is sampling a corner of sportspace where body fat is an advantage
+
+It's not that females and males are exactly the same except males are 10% stronger on average
+
+It really is an apples-to-oranges comparison, rather than "two populations of apples with different mean weight"
+
+https://www.lesswrong.com/posts/cu7YY7WdgJBs3DpmJ/the-univariate-fallacy
+https://www.lesswrong.com/posts/vhp2sW6iBhNJwqcwP/blood-is-thicker-than-water
+
+If you just had one integrated league, females wouldn't be competitive (in almost all sports, with some exceptions [like ultra-distance swimming](https://www.swimmingworldmagazine.com/news/why-women-have-beaten-men-in-marathon-swimming/)).
+]
+
+[TODO: sentences about studies showing that HRT doesn't erase male advantage
+https://twitter.com/FondOfBeetles/status/1368176581965930501
+https://link.springer.com/article/10.1007/s40279-020-01389-3
+https://bjsm.bmj.com/content/55/15/865
+]
+
+[TODO sentences about Lia Thomas and Cece Tefler  https://twitter.com/FondOfBeetles/status/1466044767561830405 (Thomas and Tefler's feats occured after Yudkowsky's 2018 Tweets, but this kind of thing was easily predictable to anyone familiar with sex differences—cite South Park)
+https://www.dailymail.co.uk/news/article-10445679/Lia-Thomas-UPenn-teammate-says-trans-swimmer-doesnt-cover-genitals-locker-room.html
+https://twitter.com/sharrond62/status/1495802345380356103 Lia Thomas event coverage
+https://www.realityslaststand.com/p/weekly-recap-lia-thomas-birth-certificates Zippy inv. cluster graph!
+https://www.swimmingworldmagazine.com/news/a-look-at-the-numbers-and-times-no-denying-the-advantages-of-lia-thomas/
+]
+
+Given the empirical reality of the different multivariate trait distributions, "Who are the best athletes _among females_" is a natural question for people to be interested in, and want separate sports leagues to determine. Including male people in female sports leagues undermines the point of having a separate female league. 
+
+(Similarly, when conducting [automobile races](https://en.wikipedia.org/wiki/Auto_racing), you want there to be rules enforcing that all competitors have the same type of car for some common-sense-reasonable operationalization of "the same type", because a race between a sports car and a [moped](https://en.wikipedia.org/wiki/Moped) would be mostly measuring who has the sports car, rather than who's the better racer.)
+
+In light of these _empirical_ observations, Yudkowsky's suggestion that an ignorant comittment to an "Aristotelian binary" is the main reason someone might care about the integrity of women's sports, is revealed as an absurd strawman. This just isn't something any scientifically-literate person would write if they had actually thought about the issue _at all_, as contrasted to having _first_ decided (consciously or not) to bolster one's reputation among progressives by dunking on transphobes on Twitter, and wielding one's philosophy knowledge in the service of that political goal. The relevant empirical facts are _not subtle_, even if most people don't have the fancy vocabulary to talk about them in terms of "multivariate trait distributions".
+
+Yudkowsky's pretension to merely have been standing up for the distinction between facts and policy questions isn't credible: if you _just_ wanted to point out that the organization of sports leagues is a policy question rather than a fact (as if anyone had doubted this), why would you throw in the "Aristotelian binary" strawman and belittle the matter as "humorous"? There are a lot of issues that I don't _personally_ care much about, but I don't see anything funny about the fact that other people _do_ care.
+
+(And in this case, the empirical facts are _so_ lopsided, that if we must find humor in the matter, it really goes the other way. Lia Thomas trounces the entire field by _4.2 standard deviations_ (!!), and Eliezer Yudkowsky feels obligated to _pretend not to see the problem?_ You've got to admit, that's a _little_ bit funny.)
+
+Writing out this criticism now, the situation doesn't feel _confusing_, anymore. Yudkowsky was very obviously being intellectually dishonest in response to very obvious political incentives. That's a thing that public intellectuals do. And, again, I agree that the distinction between facts and policy decisions _is_ a valid one, even if I thought it was being selectively invoked here as an [isolated demand for rigor](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) because of the political context. Coming from _anyone else in the world_, I would have considered the thread fine—a solidly above-average performance, really. I wouldn't have felt confused or betrayed at all. Coming from Eliezer Yudkowsky, it was—confusing.
+
+Because of my hero worship, "he's being intellectually dishonest in response to very obvious political incentives" wasn't in my hypothesis space; I _had_ to assume the thread was an "honest mistake" in his rationality lessons, rather than (what it actually was, what it _obviously_ actually was) hostile political action.
+
+
+
+
+
+
+
+(because we can define a word any way we like), 
+
+From the text of your Tweets and your subsequent email clarification, I understand that you say your intent was specifically *only* to slap down the "Using 'he' for someone with a Y chromosome is lying" fallacy, and not to imply anything further. And I understand that it wouldn't be realistic or fair to expect every public figure to host a truly exhaustive debate on all related issues every time a fallacy they encounter in the wild annoys them enough for them to Tweet about that specific fallacy.
+
+Although it's important to check whether you've _actually_ encountered the annoying fallacy in the wild, rather than your [cached](https://www.lesswrong.com/posts/2MD3NMLBPCqPfnfre/cached-thoughts) misconception of what other people are saying. Your email of 29 November seems to imply that you were trying to subtweet Eric Weinstein—presumably his [7-tweet thread](https://twitter.com/EricRWeinstein/status/1067112939482574848) earlier the same day as your Tweets at issue? If so, I think you're strawmanning him pretty badly! If you reread _his_ Tweets (["This banning of 'deadnaming' is preposterous"](https://twitter.com/EricRWeinstein/status/1067112940686299136), ["treating Trans M/F *exactly* the same as born M/F would be medical malpractice"](https://twitter.com/EricRWeinstein/status/1067112943186145280)), I don't think he's _saying_ anything that could be summarized as "Pronouns are facts/lies!", _especially_ given that [he _explicitly says_](https://twitter.com/EricRWeinstein/status/1067112948529684480), "almost all of us who fight this issue in the #IDW voluntarily use people’s preferred pronouns".
+
+In any case, I hope you can see why I would be concerned about the *effects* of your Tweets on your readers, whatever your private intent? It is written of [the fourth virtue](http://yudkowsky.net/rational/virtues/): "If you are selective about which arguments you inspect for flaws, or how hard you inspect for flaws, then every flaw you learn how to detect makes you that much stupider." It is likewise written [of reversed stupidity](https://www.lesswrong.com/posts/qNZM3EGoE5ZeMdCRt/reversed-stupidity-is-not-intelligence):
+
+> **To argue against an idea honestly, you should argue against the best arguments of the strongest advocates**. \[bolding mine—ZMD\] Arguing against weaker advocates proves *nothing*, because even the strongest idea will attract weak advocates.
+
+As _geniunely inconvenient_ as it is for people who just want to Tweet about one annoying fallacy and then move on with their lives without the need for [endless disclaimers](http://www.overcomingbias.com/2008/06/against-disclai.html), I fear that if you *just* slap down a [weak man](http://slatestarcodex.com/2014/05/12/weak-men-are-superweapons/) from the "anti-trans" political coalition and then *don't say anything else* in a similarly prominent location, then you're knowably, predictably making your *readers* that much stupider, which has negative consequences for your "advancing the art of human rationality" project, even if you haven't said anything false—particularly because people look up to you as the one who taught them to aspire to a _[higher](https://www.lesswrong.com/posts/DoLQN5ryZ9XkZjq5h/tsuyoku-naritai-i-want-to-become-stronger) [standard](https://www.lesswrong.com/posts/Nu3wa6npK4Ry66vFp/a-sense-that-more-is-possible)_ [than](https://www.lesswrong.com/posts/XqmjdBKa4ZaXJtNmf/raising-the-sanity-waterline) merely not-lying.
+
+The fact that [you disclaimed that](https://twitter.com/ESYudkowsky/status/1067185907843756032) you weren't taking a stand for or against Twitter's anti-misgendering policy demonstrates that you don't have a Hansonian aversion to spending a few extra words to prevent the most common misunderstandings. You've also previously written about a speaker's duty to teach the virtue of evenness [in "Knowing About Biases Can Hurt People"](https://www.lesswrong.com/posts/AdYdLP2sRqPMoe8fb/knowing-about-biases-can-hurt-people) (which I think should go the same for "Knowing About Philosophy of Language Can Hurt People"):
+
+> Whether I do it on paper, or in speech, I now try to never mention calibration and overconfidence unless I have first talked about disconfirmation bias, motivated skepticism, sophisticated arguers, and dysrationalia in the mentally agile. First, do no harm!
+
+A decade ago, back when you were [trying to explain your metaethics](https://wiki.lesswrong.com/wiki/Metaethics_sequence), I was part of the crowd saying, "Wait, how is this any different from anti-realism? You agree that there's no morality in the laws of physics themselves." And my present-day paraphrase of your reply—which still might not match what you actually believe, but is much more than I understood then—would be: "I agree that there's no morality written in the laws of physics, no [ontological XML tag](https://www.lesswrong.com/posts/PoDAyQMWEXBBBEJ5P/magical-categories) of Intrinsic Goodness, but you're not *done* [dissolving the question](https://www.lesswrong.com/posts/Mc6QcrsbH5NRXbCRX/dissolving-the-question) just by making that observation. People seem to be doing *cognitive work* when they argue about morality. What is the nature of that cognitive work? *That* is the question I am attempting to answer."
+
+Similarly with categories in general, and sex (or "gender") categorization in particular. It's true that the same word can be used in many ways depending on context. But you're _not done_ dissolving the question just by making that observation. And the one who triumphantly shouts in the public square, "And *therefore*, people who object to my preferred use of language are ontologically confused!" is *ignoring the interesting part of the problem*. Gender identity's [claim to be non-disprovable](https://www.lesswrong.com/posts/fAuWLS7RKWD2npBFR/religion-s-claim-to-be-non-disprovable) mostly functions as a way to [avoid the belief's real weak points](https://www.lesswrong.com/posts/dHQkDNMhj692ayx78/avoiding-your-belief-s-real-weak-points).
+
+An illustrative example: like many gender-dysphoric males, I cosplay female characters at conventions sometimes. And, unfortunately, like many gender-dysphoric males, I'm *not very good at it*. I think someone looking at [my cosplay photos](https://www.facebook.com/zmdavis/media_set?set=a.10155131901020199&type=3) and trying to describe their content in clear language—not trying to be nice to anyone or make a point, but just trying to use language as a map that reflects the territory—would say something like, "This is a photo of a man and he's wearing a dress." The word *man* in that sentence is expressing *cognitive work*: it's a summary of the [lawful cause-and-effect evidential entanglement](https://www.lesswrong.com/posts/6s3xABaXKPdFwA3FS/what-is-evidence) whereby the photons reflecting off the photograph are correlated with photons reflecting off my body at the time the photo was taken, which are correlated with my externally-observable secondary sex characteristics (facial structure, beard shadow, *&c.*), from which evidence an agent using an [efficient naïve-Bayes-like model](http://lesswrong.com/lw/o8/conditional_independence_and_naive_bayes/) can assign me to its "man" category and thereby make probabilistic predictions about some of my traits that aren't directly observable from the photo, and achieve a better [score on those predictions](http://yudkowsky.net/rational/technical/) than if the agent had assigned me to its "woman" category, where by "traits" I mean not *just* chromosomes ([as you suggested on Twitter](https://twitter.com/ESYudkowsky/status/1067291243728650243)), but the *conjunction* of chromosomes *and* reproductive organs _and_ muscle mass (sex difference effect size of [Cohen's *d*](https://en.wikipedia.org/wiki/Effect_size#Cohen's_d)≈2.6) *and* Big Five Agreeableness (*d*≈0.5) *and* Big Five Neuroticism (*d*≈0.4) *and* short-term memory (*d*≈0.2, favoring women) *and* white-to-gray-matter ratios in the brain *and* probable socialization history *and* [lots of other things](https://en.wikipedia.org/wiki/Sex_differences_in_human_physiology)—including differences we might not necessarily currently know about, but have prior reasons to suspect exist: no one _knew_ about sex chromosomes before 1905, but given all the other systematic differences between women and men, it would have been a reasonable guess (that turned out to be correct!) to suspect the existence of some sort of molecular mechanism of sex determination.
+
+Making someone say "trans woman" instead of "man" in that sentence depending on my verbally self-reported self-identity may not be forcing them to *lie*. But it *is* forcing them to obfuscate the probabilistic inference they were trying to communicate with the original sentence (about modeling the person in the photograph as being sampled from the "men" [cluster in configuration space](https://www.lesswrong.com/posts/WBw8dDkAWohFjWQSk/the-cluster-structure-of-thingspace)), and instead use language that suggests a different cluster-structure ("trans women", two words, are presumably a subcluster within the "women" cluster). This encoding might not confuse a well-designed AI into making any bad predictions, but [as you explained very clearly, it probably will confuse humans](https://www.lesswrong.com/posts/veN86cBhoe7mBxXLk/categorizing-has-consequences):
+
+> You can see this in terms of similarity clusters: once you draw a boundary around a group, the mind starts trying to harvest similarities from the group.  And unfortunately the human pattern-detectors seem to operate in such overdrive that we see patterns whether they're there or not; a weakly negative correlation can be mistaken for a strong positive one with a bit of selective memory.
+
+(I _want_ to confidently predict that everything I've just said is completely obvious to you, because I learned it all specifically from you! A 130 IQ _nobody_ like me shouldn't have to say _any_ of this to the _author_ of "A Human's Guide to Words"! But then I don't know how to reconcile that with your recent public statement about [not seeing "how there's scientific truth at stake"](https://twitter.com/ESYudkowsky/status/1067482047126495232). Hence this desperate and [_confused_](https://www.lesswrong.com/posts/5JDkW4MYXit2CquLs/your-strength-as-a-rationalist) email plea.)
+
+In your email of 29 November, you wrote, "I hope I would have noticed if I had tweeted anything asserting [Zack's] factual statements to be factually false, since that would imply knowledge I don't claim to have," and in your Twitter [reply link](https://twitter.com/ESYudkowsky/status/1068071036732694529) to my post (thanks!!), you wrote, "[w]ithout yet judging its empirical content." However, as Michael emphasized ("That's not what Zach is talking about at all and not what the debate is about and you know this"), the _main_ point I'm trying to make is a philosophical one, not an empirical one: that category boundaries and associated language are not arbitrary (if you care about human intelligence being useful), and that sex (or "gender") is no exception.
+
+I _also_ made some empirical claims favoring Blanchard's two-type homosexual/autogynephilic model of MtF (as we discussed in 2016). But as I _tried_ to make clear in the post (I fear I am not as good of a writer as you, and perhaps should have put in more effort to make it clearer, but see [footnote 10](http://unremediatedgender.space/2018/Feb/the-categories-were-made-for-man-to-make-predictions/#note-10)), I don't think you _need_ the full autogynephilia theory to show that the categories-are-not-arbitrary point has implications for discourse on transgender issues, and I think you _already_ have enough evidence—if [used efficiently](https://www.lesswrong.com/posts/MwQRucYo6BZZwjKE7/einstein-s-arrogance)—to see that the distribution of actual trans people we know is such that the categories-are-not-abritrary point is relevant in practice.
+
+Consider again the 6.7:1 (!!) cis-woman-to-trans-woman ratio among 2018 _Slate Star Codex_ survey respondents. The ratio in the general population is going to be more like 86:1 (estimate derived from dividing 50% (female share of population according to [Fisher's principle](https://en.wikipedia.org/wiki/Fisher%27s_principle)) by 0.58% (trans share of U.S. population according to a [2016 report](http://williamsinstitute.law.ucla.edu/wp-content/uploads/How-Many-Adults-Identify-as-Transgender-in-the-United-States.pdf))).
+
+A curious rationalist, having been raised to believe that trans women are women, and considering observations like this, might ask the question: "Gee, I wonder _why_ women-who-happen-to-be-trans are _so much_ more likely to read _Slate Star Codex_, and be attracted to women, and, um, have penises, than women-who-happen-to-be-cis?"
+
+If you're _very careful_, I'm sure it's possible to give a truthful answer to that question without misgendering anyone. But if you want to give a _concise_ answer—perhaps not a _maximally rigorous_ answer, but an answer that usefully [points](https://www.lesswrong.com/posts/YF9HB6cWCJrDK5pBM/words-as-mental-paintbrush-handles) to the true causal-structure-in-the-world while still fitting in a Tweet—I think you _need_ to be able to say something like, "Because trans women are men." (At least as a _live hypothesis_, even if you prefer an intersex-brain etiology for the people we know.)
+
+Maybe we'd _usually_ prefer not to phrase it like that, both for reasons of politeness, and because we can be more precise at the cost of using more words ("Interests and sexual orientation may better predicted by natal sex rather than social gender in this population; also, not all trans women have had sex reassignment surgery and so retain their natal-sex anatomy"?). But I think the short version needs to be _sayable_, because if it's not _sayable_, then that's artificially restricting the hypothesis spaces that people use to think with, which is bad (if you care about human intelligence being useful).
+
+You see the problem, right? I'm kind of at my wits' end here, because I _thought_ the point of this whole "rationality" project was to carve out _one_ place in the entire world where good arguments would _eventually_ triumph over bad arguments, even when the good arguments happen to be mildly politically inconvenient. And yet I keep encountering people who seem to be regarded as aspiring-rationalists-in-[good-standing](https://srconstantin.wordpress.com/2018/12/24/contrite-strategies-and-the-need-for-standards/) who try to get away with this obfuscatory "We can define the word 'woman' any way we want, and you _need_ to define it by self-identification because otherwise you're _hurting trans people_" maneuver as if that were the end of the discussion!
+
+A [few](https://en.wikipedia.org/wiki/Rule_of_three_(writing)) linkable examples of this sort of thing—
+
+ * The immortal Scott Alexander [wrote](https://slatestarcodex.com/2014/11/21/the-categories-were-made-for-man-not-man-for-the-categories/), "An alternative categorization system is not an error, and borders are not objectively true or false." (You read my reply.)
+
+ * _Vox_ journalist and author of the popular Tumblr blog _The Unit of Caring_ Kelsey Piper [wrote](https://theunitofcaring.tumblr.com/post/171986501376/your-post-on-definition-of-gender-and-woman-and)—
+
+> "If you can find anyone explaining why [_woman_ as 'adult human biological female'] is a good definition, **or even explaining what good properties it has** [!?!! bolding mine—ZMD], I'd appreciate it because I did sincerely put in the effort and—uncharitably, it's as if there's just 'matches historical use' and 'doesn’t involve any people I consider icky being in my category'."
+
+[(My reply.)](http://unremediatedgender.space/2018/Apr/reply-to-the-unit-of-caring-on-adult-human-females/)
+
+ * On Facebook, MIRI communications director Rob Bensinger [told me](https://www.facebook.com/robbensinger/posts/10158073223040447?comment_id=10158073685825447&reply_comment_id=10158074093570447&comment_tracking=%7B%22tn%22%3A%22R2%22%7D)—
+
+> Zack, "woman" doesn't unambiguously refer to the thing you're trying to point at; even if no one were socially punishing you for using the term that way, and even if we were ignoring any psychological harm to people whose dysphoria is triggered by that word usage, there'd be the problem regardless that these terms are already used in lots of different ways by different groups. The most common existing gender terms are a semantic minefield at the same time they're a dysphoric and political minefield, and everyone adopting the policy of objecting when anyone uses man/woman/male/female/etc. in any way other than the way they prefer is not going to solve the problem at all.
+
+In context, I argue that this was an attempted [conversation-halter of the appeal-to-arbitrariness type](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters): if you scroll up and read my comments, I think it should be very clear that I understood that words can be used in many ways, and that I was objecting to another commenter's word usage for a _specific stated reason_ about the expressive power of language. ("To say that someone _already is_ a woman simply by virtue of having the same underlying psychological condition that motivates people to actually take the steps of transitioning (and thereby _become_ a trans woman) kind of makes it hard to have a balanced discussion of the costs and benefits of transitioning.") Rob didn't even acknowledge my argument! (Although the other commenter, to her credit, did!)
+
+Now, to be fair to Rob, it's certainly possible that he was criticizing me specifically because I was the "aggressor" objecting to someone else's word usage, and that he would have stuck up for me just the same if someone had "aggressed" against me using the word _woman_ in a sense that excluded non-socially-transitioned gender-dysphoric males, for the same reason ("adopting the policy of objecting when anyone uses man/woman/male/female/etc. in any way other than the way they prefer is not going to solve the problem at all"). But given my other experiences trying to argue this with many people, I feel justified in my suspicions that that wasn't actually his algorithm? If socially-liberal people in the Current Year _selectively_ drag out the "It's pointless to object to someone else's terminology" argument _specifically_ when someone wants to talk about biological sex (or even _socially perceived_ sex!) rather than self-identified gender identity—but objecting on the grounds of "psychological harm to people whose dysphoria is triggered by that word usage" (!!) is implied to be potentially kosher—that has a pretty stark distortionary effect on our discussions!
+
+(_Speaking_ of psychological harm, it may not be a coincidence that ten days after this exchange, I lost a lot of sleep, had a nervous breakdown, and ended up being involuntarily committed to the psychiatric ward for three days. Maybe in some people's book, that makes me a less reliable narrator, because I'm "crazy." But when everyone I [trusted](https://www.lesswrong.com/posts/wustx45CPL5rZenuo/no-safe-defense-not-even-science) to help keep me sane seemed intent on applying social pressure and clever definition-hacking mind games to get me to accept that men like me can _literally_ be women _on the basis of our saying so_, perhaps it is _understandable_ that I was pretty upset?)
+
+I'm a transhumanist like everyone else; I want to support my trans friends like everyone else (and might end up being one of those friends if the technology gets better or I grow a spine) but Scott's, Kelsey's, and Rob's performance above _can't possibly_ be the way to have the discussion if we're going to be intellectually honest about it!
+
+(_Needless to say_ but I'm saying it anyway because I've been trained to perceive the need because I live in a trash fire: Scott, Kelsey, and Rob are all great and smart people who I love; I'm attacking a _flawed argument pattern_, not people.)
+
+You replied to me (in part):
+
+> "Lying" is for per se direct falsehoods. That's all I was policing—people who do claim to be aspiring toward truth, messing up on an easy problem of elementary epistemological typing and the nature of words, but who might still listen maybe if somebody they respect nopes the fallacy.  The rest of human civilization is a trash fire so whatever.
+
+Some of us still have to live in this trash fire! And if you don't care about that—if you don't care about that, the next generation of AI researchers (assuming we have time for another generation) is growing up in this trash fire and a lot of them probably follow you on Twitter! Judging by local demographics, a _surprising number_ of them are gender-dysphoric males. If, as I'm claiming, the political push for trans rights is seducing them into adopting [_generalized_ bad patterns of reasoning](https://www.lesswrong.com/posts/XTWkjCJScy2GFAgDt/dark-side-epistemology) (_e.g._, "Trans women are women, [_by definition_](https://www.lesswrong.com/posts/cFzC996D7Jjds3vS9/arguing-by-definition)"), surely _that_ matters?
+
+The clever definition-hacking mind games are _not technically false_—there is almost never any occasion on which I can catch anyone in a _explicit lie_ like "Benya Fallenstein and Jessica Taylor have XX karyotypes." But I still think the clever definition-hacking games are _incredibly_ obfuscatory in a way that people would not tolerate in almost _any_ other context.
+
+Satire is a very weak form of argument: the one who wishes to doubt will always be able to find some aspect in which the obviously-absurd satirical situation differs from the real-world situation being satirized, and claim that that difference destroys the relevence of the joke. But on the off-chance that it might help _illustrate_ my concern, imagine you lived in a so-called "rationalist" subculture where conversations like this happened—
+
+**Bob**: "Look at this [adorable cat picture](https://twitter.com/mydogiscutest/status/1079125652282822656)!"  
+**Alice**: "Um, that looks like a dog to me, actually."  
+**Bob**: "[You're not standing](https://twitter.com/ESYudkowsky/status/1067198993485058048) in defense of truth if you insist on a word, brought explicitly into question, being used with some particular meaning. [Now, maybe as a matter of policy](https://twitter.com/ESYudkowsky/status/1067294823000887297), you want to make a case for language being used a certain way. Well, that's a separate debate then."
+
+If you were Alice, and a _solid supermajority_ of your incredibly smart, incredibly philosophically sophisticated friend group _including Eliezer Yudkowsky_ (!!!) seemed to behave like Bob (and reaped microhedonic social rewards for it in the form of, _e.g._, hundreds of Twitter likes), that would be a _pretty worrying_ sign about your friends' ability to accomplish intellectually hard things (_e.g._, AI alignment), right? Even if there isn't any pressing practical need to discriminate between dogs and cats, the _problem_ is that Bob is [_selectively_](http://slatestarcodex.com/2014/08/14/beware-isolated-demands-for-rigor/) using his sophisticated (and correct!) philosophy-of-language insight to try to _undermine Alice's ability to use language to make sense of the world_, even though Bob obviously knows goddamned well what Alice was trying to say.
+
+With respect to transgender issues, this certainly _can_ go both ways: somewhere on Twitter, there are members of the "anti-trans" political coalition insisting, "No, that's _really_ a man because chromosomes" even though they know that that's not what members of the "pro-trans" coalition mean—although as stated earlier, I don't think Eric Weinstein is guilty of this. But given the likely distribution of your Twitter followers and what they need to hear, I'm very worried about the _consequences_ (again, remaining agnostic about your private intent) of slapping down the "But, but, chromosomes" idiocy and then not engaging with the _drop-dead obvious_ "But, but, clusters in high-dimensional configuration space that [aren't actually changeable with contemporary technology](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions)" steelman.
+
+It makes sense that (I speculate) you might perceive political constraints on what you want to say in public. (I still work under a pseudonym myself; it would be wildly hypocritical of me to accuse anyone else of cowardice!) But I suspect that if you want to not get into a distracting political fight about topic X, then maybe the responsible thing to do is just not say anything about topic X, rather than engaging with the _stupid_ version of anti-X, and then [stonewalling](https://www.lesswrong.com/posts/wqmmv6NraYv4Xoeyj/conversation-halters) with "That's a policy question" when people [try to point out the problem](https://twitter.com/samsaragon/status/1067238063816945664)? Having already done so, is it at all possible that you might want to provide your readers a clarification that [category boundaries are not arbitrary](http://lesswrong.com/lw/o0/where_to_draw_the_boundary/) and that [actually changing sex is a very hard technical problem](https://www.lesswrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions)? Or if you don't want to do that publicly, maybe an internal ["Halt, Melt, and Catch Fire event"](https://www.lesswrong.com/rationality/fighting-a-rearguard-action-against-the-truth) is in order on whatever processes led to the present absurd situation (where I feel like I need to explain "A Human's Guide to Words" to you, and Michael, Sarah, and Ben all seem to think I have a point)? Alternatively, if _I'm_ philosophically in the wrong here, is there a particular argument I'm overlooking? I should be overjoyed to be corrected if I am in error, but "The rest of human civilization is a trash fire so whatever" is _not a counterargument!_
+
+
+
+