真的能戒掉吗?给点建议?
你也要?我没整理过方法,概括下或许是
- 最好避免看色。上面也说了基因力量很强,直接跟色色场景对抗非常消耗心力的。所以看之前,调用思考来制止,用心理学讲是调用系统 2.
- 打持久战。利用行为的惯性/习惯,不是短期能完成的事。理解短期失败是很正常的事,肯定阶段性的成果,否则会出现消极情绪波动,情绪波动时极容易受潜意识的驱使,失去控制。
- 利用乏味感。部分题材确实戳我 xp(非对情节的兴趣),可以找一堆同样题材的作品光速浏览,很快就觉得无趣了。
- 最后一点很个人化,因为我看书还是文艺作品都是剧情党,每次读到弱剧情的作品都要狠狠批判一番。你也知道主打色色的作品几乎在情节上都不合格。
感谢门友,看我能坚持几天
人的兽性还需要论证吗,你能忍住几天不奖励自己一发?
主要我次数实在有点太多了 有点受不了了
从小过着修道院的生活 远离异性 确实没啥欲望
接触多了像是开了开关 很难再关上了
生物进化到现在,没有一块是没用的,更何况是 DNA。
人类并未完全搞懂从 DNA 到 RNA 再到 protein 的过程。
有很多 DNA 是冗余的,这必然有它的道理,
例如,假如所有 DNA 都是有用的,那么一旦在例如电离辐射的外间因素影响下一些位发生错误,可能导致 unexpected fatal-error rate
DNA 的冗余可能是精妙地细胞/生命体平衡个体差异和总体性状稳定的机制之一。
是的,冗余和没用是两件事,鲁棒性也是用处
兽性不好听,也许可以叫动物性。
因为人的生理构造,masturbation 是完全有必要的。
对于男性来说,禁欲会导致 prostate 充盈,长期以往会引起 前列腺增生,以及可能导致注意力分散降低工作效率。
对于女性来说,可以了解一下 Hysteria: 歇斯底里 - 维基百科,自由的百科全书
最近了解到了 社会达尔文主义,差点就掉进坑里面了,联系之前看过的一本对优生学、人种(血统)强烈抨击的叫做《基因彩票》,可以来简单讲讲我自己的感受
社会达尔文主义本质上比达尔文主义的来源要更早,早在维多利亚时期就有这样的学说
在达尔文主义出来之前,之前的人因为人一定为进化成更好的人,比如说我们从树上走到地上,从非洲走向其他大陆,肤色从深变的白,生活和科技水平也变得越来越好,他们忽视了达尔文主义中对进化的定义:
进化的本质并不意味着先进,进化是为适应环境的变化
非洲人之所以因为肤色黑是因为紫外线太强,过浅的肤色容易引起晒伤或者皮肤癌;欧洲人之所以白是因为光照弱,为了吸收充足紫外线生成维生素 D 而变得浅
这本身是对环境的适应,与是否低能或者先进没有一点关系!而且目前针对人种的基因研究也都是关于白人的,在分子学上也缺乏相关的证据
我对社会达尔文主义的理解有点像:“我强是因为我强;你弱是因为你弱”,它被用作强者用来自洽,来让弱者屈服的一种“话术”
哪怕是真正自然界中的达尔文主义,也出现了一些所谓“不利于生存的特例”,这些社会达尔文主义者却选择性地忽略掉了
达尔文主义是具有极大的随机性的,而社会达尔文主义却具有极大的价值取向——强,更强!太多人将达尔文主义扭曲为能为他们所做恶提供的科学依据了
所以人类和动物是不一样的,虽然动物也吃喝拉撒睡,人类也吃喝拉撒睡,但是不能因为人和动物具有相似的地方就把人看作是一种动物。因为人还是有和动物不一样的地方,人有精神的追求,人有对美的享受,人有对崇高的渴望,但是动物是没有的,所以人和动物是不一样的。
最客观理解达尔文的方式是写遗传算法
[2502.07527] NatureLM: Deciphering the Language of Nature for Scientific Discovery
基础模型已经彻底改变了自然语言处理和人工智能,显著提升了机器理解和生成自然语言的能力。受到这些基础模型成功的启发,研究人员开发了针对各个科学领域的基础模型,包括小分子、材料、蛋白质、DNA 和 RNA。然而,这些模型通常是单独训练的,缺乏跨不同科学领域整合的能力。考虑到这些领域中的实体都可以表示为序列,并且它们共同构成了“自然的语言”,我们提出了自然语言模型(简称 NatureLM),这是一种基于序列的科学基础模型,旨在促进科学发现。NatureLM 通过多领域的科学数据进行预训练,提供了一个统一且多功能的模型,能够支持多种应用,包括:(i)使用文本指令生成和优化小分子、蛋白质、RNA 和材料;(ii)跨领域生成/设计,例如从蛋白质到小分子和蛋白质到 RNA 的生成;(iii)在 SMILES 到 IUPAC 翻译和 USPTO-50k 逆合成等任务中达到最先进的表现。NatureLM 为各类科学任务提供了有前景的通用方法,包括药物发现(靶点生成/优化、ADMET 优化、合成)、新型材料设计,以及治疗蛋白质或核苷酸的开发。我们已经开发了不同规模的 NatureLM 模型(分别为 10 亿、80 亿和 467 亿参数),并观察到随着模型规模的增加,性能有了明显的提升。