check in
authorZack M. Davis <[email protected]>
Tue, 30 Apr 2024 19:27:57 +0000 (12:27 -0700)
committerZack M. Davis <[email protected]>
Tue, 30 Apr 2024 19:27:57 +0000 (12:27 -0700)
content/drafts/on-the-public-anti-epistemology-of-dath-ilan.md
notes/critical_acclaim.md
notes/memoir-sections.md
notes/memoir_wordcounts.csv
notes/notes.txt
notes/patriate_links.py
notes/post_ideas.txt

index dbd39b4..a1998a4 100644 (file)
@@ -212,3 +212,5 @@ This essay has had some negative things to say about dath ilani culture.
 
 ### Conclusion
 
+> That's the point where it starts to look like somebody is trying to hide something, or fool future generations, and not just respond to a strange threat in a way where they're happy to let you take all the precautions required to make sure nobody's fooling anybody.
+https://www.glowfic.com/replies/1813073#reply-1813073
index ec562de..1ed0710 100644 (file)
@@ -240,3 +240,9 @@ https://twitter.com/adrusi/status/1747390956159037508
 
 https://twitter.com/sesquimundist/status/1750889751807131731
 > it's guys like zack m davis that deserve to have a high religious role
+
+https://awful.systems/comment/2533863
+
+
+https://twitter.com/tracewoodgrains/status/1776212410778460593
+> a phenomenon approx comparable to furries, tied to but not wholly based on sexuality, addressed skillfully by people like Zack M Davis and Phil Illy. possible to integrate as part of a healthy life; cannot catch on as a narrative so long as people see it wielded only as a weapon
index 604aabe..a2831d1 100644 (file)
@@ -1,34 +1,5 @@
-pt. 4 edit tier—
-✓ "A Fire" § title
-✓ make sure I'm summarizing "policy debates" moral from "Challenges"
-✓ revise "too good a writer" to be more explicit "someone could be that naive"
-✓ footnote about how I could be blamed for being too credulous?
-✓ Stephen Jay Gould
-✓ social gender, hair color, and "believing in"
-✓ emphasize that the philosophy-of-language thing was much worse
-✓ Feynman, "pretend that the master truthseekers of any age of history"
-✓ Dawkins and Coyne and Hooven
-✓ edit post to clarify "nudging the cognition"
-✓ Brennan "everyone else should participate" needs more wording adjustments
-✓ Tail's objection to FFS example
-✓ the mailing list post noted it as a "common sexual fantasy"
-_ look for a place to link http://benjaminrosshoffman.com/discursive-warfare-and-faction-formation/
-_ cite more sneers; use a footnote to pack in as many as possible
-
-time-sensitive globals TODOs—
-✓ consult Said
-✓ patriate-links script TODOs
-✓ draft #drama strategy opening remarks
-✓ #drama strategy session
-✓ consult Anna
-✓ draft Twitter thread
-- remaining pt. 4 edit tier
-_ consult lc?
+_ comment to lc
 _ bully Jeff Ladish
-_ PUBLISH pt. 4!!
-
---------
-
 _ finish pt. 5
 _ address auto edit tier to pt. 5
 _ solicit red team pt. 5
@@ -38,7 +9,6 @@ _ apply pro edit pt. 5
 
 ✓ consult Tail
 
-
 _ consult David Xu
 _ psychiatric disaster private doc
 
@@ -1583,6 +1553,8 @@ Arthur Schopenhauer's Die Kunst, Recht zu behalten https://wiki.obormot.net/Arch
 > If human nature were not base, but thoroughly honourable, we should in every debate have no other aim than the discovery of truth; we should not in the least care whether the truth proved to be in favour of the opinion which we had begun by expressing, or of the opinion of our adversary.
 https://www.greaterwrong.com/posts/ExssKjAaXEEYcnzPd/conversational-cultures-combat-vs-nurture-v2/comment/4qJk3BZ2oQtFskYLh
 
+William Clifford on "The Ethics of Belief": https://statmodeling.stat.columbia.edu/wp-content/uploads/2023/12/Clifford_ethics.pdf
+
 -----
 
 I shall be happy to look bad for _what I actually am_. (If _telling the truth_ about what I've been obsessively preoccupied with all year makes you dislike me, then you probably _should_ dislike me. If you were to approve of me on the basis of _factually inaccurate beliefs_, then the thing of which you approve, wouldn't be _me_.)
@@ -2072,6 +2044,7 @@ https://www.greaterwrong.com/posts/QZs4vkC7cbyjL9XA9/changing-emotions/comment/p
 https://www.greaterwrong.com/posts/WijMw9WkcafmCFgj4/do-scientists-already-know-this-stuff/comment/EFg4p7KRbthgH3SnR
 https://www.greaterwrong.com/posts/r5H6YCmnn8DMtBtxt/you-are-a-brain/comment/CsqYAeCPnsAsdQb7d
 https://www.greaterwrong.com/posts/QB9eXzzQWBhq9YuB8/rationalizing-and-sitting-bolt-upright-in-alarm/comment/2FfTFrA7iKK6kxqMq
+https://www.greaterwrong.com/posts/8yCXeafJo67tYe5L4/and-all-the-shoggoths-merely-players/comment/AsedCtPfKAef7DdHw
 
 I should have said: _You_ are a product of your time. _Eliezer_ has no integrity. Or rather, he's forgotten that you can't define the word "integrity" any way you want.
 
@@ -2859,3 +2832,80 @@ https://twitter.com/ESYudkowsky/status/1356494399945854976
 
 https://twitter.com/ESYudkowsky/status/1076155800144363520
 > I got a lot further as an adolescent on "Ask what a superintelligence would think".  Eventually I used that up and have now moved on to "What would Anna Salamon think?"
+
+https://twitter.com/patio11/status/1766115590429618347
+> Please note that this is extremely, extremely true, and if you follow that to its logical conclusion, certain blogs are on the org chart of e.g. the U.S. in the same haha but absolutely serious way the NYT editorial page is.
+(quote-Tweeting someone noting Demis Hassabis linking to Slate Star Codex)
+
+----
+
+https://twitter.com/ESYudkowsky/status/1766144388890243108
+> Some social media company finally went and added easy phone calls to Congress.  Personally, I was a little "how noneliezeran!" that Google didn't do this way earlier, or Uber under Travis.  But I can see how this would be too scary in the USA, such that China did it first.
+
+This is kind of scummy behavior! Interesting that he calls scummy consequentialism eliezerian
+
+-----
+
+https://twitter.com/ESYudkowsky/status/1767276710041686076
+> What about optimising for finding and error-correcting invalid arguments?
+
+> In my own experience those are the same mental skill, but perhaps your mileage varies.  But at any rate, sure.
+
+https://discord.com/channels/401181628015050773/458419017602826260/1212913739196669963
+
+-------
+
+Unfortunately, there's still some remaining tension here insofar as the guy continues to lean on "you gotta trust me, bro; I'm from dath ilan and therefore racially superior to you" personality-cult-leader intimidation tactics, which I consider myself to have a selfish interest in showing to third parties to be unfounded.
+
+With anyone else in the world, I'm happy to let an argument drop after it's been stalemated at 20K words, because no one else in the world is making a morally fraudulent claim to be a general-purpose epistemic authority that has a shot at fooling people like me. (_E.g._, Scott Alexander is very explicit about just being a guy with a blog; Scott does not actively try to discourage people from thinking for themselves.)
+
+New example from today: a claim that MIRI is constrained by the need to hire people who make only valid arguments, and (in response to a commenter) that in his experience, finding and error-correcting invalid arguments is the same mental skill. <https://twitter.com/ESYudkowsky/status/1767276710041686076>
+
+But elsewhere, this _motherfucker_ has been completely shameless about refusing to acknowledge counterarguments that would be politically inconvenient for him to acknowledge!
+
+[]
+
+(Screenshot took place in a publicly-linked server and is therefore OK to share)
+
+My heart racing, it's tempting to leave a Twitter reply saying, "Actually, in my exhaustively documented experience, you don't give a shit about error-correcting invalid arguments when that would be politically inconvenient for you"
+
+But ... what good would that do, at this point? As I wrote in the memoir, "We've already seen from his behavior that he doesn't give a shit what people like me think of his intellectual integrity. Why would that change?"
+
+The function of getting the Whole Dumb Story written down that I was supposed to _move on_. I have _other things to do_.
+
+---------
+
+ Oli Habryka gets it! (<https://www.greaterwrong.com/posts/juZ8ugdNqMrbX7x2J/challenges-to-yudkowsky-s-pronoun-reform-proposal/comment/he8dztSuBBuxNRMSY>)
+ Vaniver gets it! (<https://www.greaterwrong.com/posts/yFZH2sBsmmqgWm4Sp/if-clarity-seems-like-death-to-them/comment/dSiBGRGziEffJqN2B>)
+
+Eliezer Yudkowsky either doesn't get it, or is pretending not to get it. I almost suspect it's the first one, which is far worse
+
+https://www.lesswrong.com/posts/CpvyhFy9WvCNsifkY/discussion-with-eliezer-yudkowsky-on-agi-interventions
+> Various people who work or worked for MIRI came up with some actually-useful notions here and there, like Jessica Taylor's expected utility quantilization.
+
+https://twitter.com/ESYudkowsky/status/1301958048911560704
+> That is: they had to impose a (new) quantitative form of "conservatism" in my terminology, producing only results similar (low KL divergence) to things already seen, in order to get human-valued output.  They didn't directly optimize for the learned reward function!
+
+-----
+
+Metzger is being reasonable here
+
+https://twitter.com/perrymetzger/status/1773340617671667713
+> That's a fairly inaccurate way of putting it. It wasn't "poked with a stick", what happened was that gradient descent was used to create a function approximator that came as close as possible to matching the inputs and outputs. It's not like someone beat a conscious entity until it deceptively did what its masters demanded but it secretly wants to do something else; in fact, the process didn't even involve GPT-4 itself, it was the process that *created* the weights of GPT-4.
+
+
+https://twitter.com/ESYudkowsky/status/1433206619135823878
+> I don't know if that quite answers your question - but my answer to a lot of "Well, what about *this* kind of AI?" is "Well, what about it?  What does one do with that kind of AI, that stops the world from ending 6 months later when some other kind of AI builds nanotech?"
+
+https://twitter.com/ESYudkowsky/status/1433207431627042819
+> For concreteness:  One can see how AlphaFold 2 is working up towards world-ending capability.  If you ask how you could integrate an AF2 setup with GPT-3 style human imitation, to embody the human desire for proteins that do nice things... the answer is roughly "Lol, what?  No."
+
+https://twitter.com/ESYudkowsky/status/1775233618035736819
+(in response to Jessica saying that LLM pretraining favors short term)
+> True for now, at least.
+
+He didn't already know this from the discussion when the Sleeper Agents paper came out?
+https://twitter.com/ESYudkowsky/status/1778938096123359256
+
+https://twitter.com/QiaochuYuan/status/1726860200421085589
+> i was on a 3-month trial for this position, and the terms of the trial were: i would not, at any point, get to field an actual question from the researchers, because all of their actual questions were *too sensitive* for me to know about
index b5d7802..ca754b3 100644 (file)
 02/28/2024,119389,450\r
 02/29/2024,119280,-109\r
 03/01/2024,119228,-52\r
-\r
index 6709f36..99db261 100644 (file)
@@ -3403,3 +3403,5 @@ https://twitter.com/extradeadjcb/status/1731503700353421315
 
 Shannon Thrace appeals to the "principle of charity" and "steelmanning": https://twitter.com/ShannonThrace/status/1749609014982258933 So she is memetically downstream of us! It's not at all obvious!
 In a later Tweet (https://twitter.com/ShannonThrace/status/1756776030453272681), she cites Volokh Conspiracy (https://reason.com/volokh/2021/05/12/steelmanning-and-interpretive-charity/) who cites LW and Chana Messinger
+
+https://unstablerontology.substack.com/p/so-whats-really-going-on-with-autogynephilia
index c1f23cc..9f666cd 100755 (executable)
@@ -22,7 +22,7 @@ with open(input_file_path, 'r') as file:
     content = file.read()
 
 # Replace the Markdown links with the new format
-rewritten_content = relative_link_pattern.sub(r'](http://unremediatedgender.space/\1)', content)
+rewritten_content = relative_link_pattern.sub(r'](http://unremediatedgender.space/\1\2)', content)
 rewritten_content = relative_image_link_pattern.sub(r'](http://unremediatedgender.space/\1)', rewritten_content)
 
 # Remove the anchors
index 1bfc6d3..9fc6357 100644 (file)
@@ -1,6 +1,10 @@
-_ Agreeing With Stalin in Ways that Exhibit Generally Rationalist Principles
 
-_ Zevi's Choice (March 2021–April 2022)
+https://manifold.markets/Tetraspace/when-will-kepe-transition
+https://manifold.markets/April/when-is-wordbug-getting-transed-by
+
+-----
+
+_ Guess I'll Die
 
 -------