不喜欢?那就试着喜欢它!

2025-09-02
不喜欢?那就试着喜欢它!

作者分享了一个独特的“爱好”:尝试喜欢自己不喜欢的事物,以此探索人性。从不喜欢菠菜到欣赏迈克尔·杰克逊,再到尝试接受乡村音乐和电视节目,作者用自身经历说明,我们对事物的厌恶有时源于自身观念而非事物本身。有些偏好可以改变,有些则根深蒂固,这取决于我们潜意识的深度和对自身认知的修正难度。文章以轻松幽默的笔触,引发我们对自身偏好和认知的思考。

阅读更多

激光刺激视锥细胞:解锁全新色彩体验?

2025-07-21
激光刺激视锥细胞:解锁全新色彩体验?

一项研究利用激光脉冲选择性刺激视网膜上的视锥细胞,声称可以让人们看到前所未有的色彩。尽管研究报告缺乏具体的受试者体验描述,但一个基于光学错觉的动画演示似乎也能产生类似效果。该动画通过饱和红色光来抑制红色敏感视锥细胞,从而突出绿色敏感视锥细胞的活动,产生一种强烈的蓝绿色。然而,由于视锥细胞光谱的重叠以及屏幕显示技术的限制,这种方法能否展现出超越人类正常色域的色彩,仍存在疑问。

阅读更多

DumPy:告别NumPy的思考,拥抱GPU加速的简洁数组语言

2025-05-24
DumPy:告别NumPy的思考,拥抱GPU加速的简洁数组语言

作者痛斥NumPy在高维数组操作上的繁琐和低效,特别是其复杂的广播和索引机制,导致程序员需要不断思考数组形状和函数行为。为此,作者提出了DumPy,一个简洁的数组语言,通过引入循环和索引的语法,并将其编译成向量化操作,从而实现GPU加速,并避免了NumPy中因避免循环而产生的复杂性。DumPy的核心思想是将维度映射到标签,并利用JAX的`vmap`函数进行向量化计算,从而简化代码,提高效率。作者通过几个例子对比了DumPy、NumPy、JAX和纯循环的性能,结果显示DumPy在简洁性和效率上都表现出色。

阅读更多
开发

NumPy:爱恨交织的Python数组计算库

2025-05-15
NumPy:爱恨交织的Python数组计算库

本文作者深入探讨了NumPy库在处理多维数组时的痛点。虽然NumPy在处理低维数组时简洁高效,但在处理复杂的多维数组运算时,其广播机制和索引方式却变得异常复杂且难以理解,导致代码难以编写和阅读。作者认为NumPy的核心问题在于其广播机制取代了索引,导致表达能力受限。文章以多个例子说明了NumPy在解决复杂数组运算时的困境,并对比了使用循环和np.einsum等方法的优劣,最终表达了对NumPy的无奈和对更易用数组语言的期待。

阅读更多
开发 多维数组

如何为你的文章(或任何东西)撰写标题

2025-05-12
如何为你的文章(或任何东西)撰写标题

这篇文章探讨了如何为你的作品撰写吸引人的标题,以最大限度地吸引目标读者。作者建议将标题视为“分类器”,它应该既能吸引目标读者点击,又能避免吸引那些不喜欢你的作品的人。文章深入分析了标题的两个目标:吸引目标读者点击并阅读,同时避免那些会讨厌你的作品的人点击。作者还讨论了各种标题策略,例如使用专业术语、模仿名人、使用双关语以及在标题中加入结论等,并最终指出一个好的标题的关键在于找到目标受众,并用简洁明了的语言传递作品的核心价值。

阅读更多

美国血液制品出口占比:事实与数据纠缠

2025-05-07
美国血液制品出口占比:事实与数据纠缠

一篇经济学人文章称美国血液制品出口占总出口的2%,引发网络热议。作者通过深入挖掘美国贸易委员会数据,发现该数字存在偏差。通过细致分析海关编码(HTS)下的不同血液制品类别,作者发现直接使用人血的制品出口占比约为0.53%,而间接使用人血(如疫苗、细胞疗法)的制品出口占比约为0.16%,总计约为0.69%。这一过程充满了数据查找的挑战,也凸显了公开透明数据的必要性。

阅读更多
科技

我的两年抗噪史:从自作聪明到真香

2025-03-12
我的两年抗噪史:从自作聪明到真香

作者因受不了楼上邻居的巨响和公园的噪音,耗时两年尝试各种奇葩降噪方法:从工业级耳罩加硅胶耳塞,到研究耳垢基因和声音物理学,甚至自制隔音室,结果均以失败告终。最终,他发现最简单有效的办法就是购买一款普通的降噪耳机。这篇文章反思了过度依赖理论分析、忽视简单方案以及对“聪明”的执念如何导致时间的浪费和痛苦的经历。

阅读更多
杂项

L-茶氨酸有效吗?一个盲测实验的意外结果

2025-03-09
L-茶氨酸有效吗?一个盲测实验的意外结果

本文作者长期服用L-茶氨酸补充剂,并相信其对缓解焦虑和压力有效。然而,为验证其功效,作者进行了长达16个月的双盲实验,结果却出乎意料:L-茶氨酸并未表现出显著的优于安慰剂(维生素D)的效果。尽管统计结果显示服用L-茶氨酸后压力略有下降,但安慰剂组也出现了类似的下降趋势,且作者本人也无法准确区分服用的是L-茶氨酸还是安慰剂。这引发了作者对L-茶氨酸功效的质疑,并呼吁更多人进行类似的盲测实验来验证其功效。

阅读更多

IRB审批噩梦:美国人体研究的监管迷宫

2025-02-13
IRB审批噩梦:美国人体研究的监管迷宫

作者以轻松的口吻讲述了美国人体研究伦理审查委员会(IRB)审批的复杂性。他用一个陡峭车道的比喻,解释人们难以理解IRB规则的荒谬程度。文章驳斥了关于IRB审批适用范围的几种常见误解,并详细解释了Common Rule的起源和内容,以及FDA的额外规定。作者指出,现行法规混乱不堪,实际执行依赖于执法机构的选择性执法,而非严格的法律条文。最终,作者呼吁简化IRB审批流程,特别是对于低风险研究,建议采取事后惩罚而非事前审批的模式。

阅读更多

大型语言模型与国际象棋的怪异现象探究

2024-11-22
大型语言模型与国际象棋的怪异现象探究

文章探讨了大型语言模型(LLM)在国际象棋中表现的奇怪现象:gpt-3.5-turbo-instruct棋力远超其他LLM。作者通过实验发现,并非OpenAI作弊,而是其他LLM未能充分发挥潜力。通过“强制复述”技巧,即要求模型复述整个棋局后再给出下一步,可以显著提高gpt-4o-mini和gpt-4o的棋力。作者认为,OpenAI的基座模型在国际象棋方面表现优异,但聊天模式限制了其能力。此外,少量示例学习和微调也有助于提高棋力,但提供合法走法列表反而会降低性能。作者推测,OpenAI的基座模型训练数据包含更多高质量的棋局,而开放模型缺乏这方面的数据。

阅读更多
未分类

大型语言模型与国际象棋的奇怪现象

2024-11-14
大型语言模型与国际象棋的奇怪现象

作者测试了多个大型语言模型(LLM)下国际象棋的能力,发现除了gpt-3.5-turbo-instruct外,其他模型的棋力都很差,即使是参数量更大的模型也不例外。作者对比了相同模型的指令微调版本和基础版本,发现指令微调反而降低了模型的棋力。作者提出了几种可能的解释,包括指令微调破坏了模型下棋的能力、gpt-3.5-turbo-instruct训练数据中包含更多棋谱、不同模型的架构差异以及不同类型数据之间的“竞争”。

阅读更多
未分类

为什么建议总是无效?

2024-07-11
为什么建议总是无效?

文章探讨了为什么建议常常无效。作者列举了多种可能性,包括建议本身的缺陷、接受者缺乏理解或执行力、个体差异、以及人们寻求建议的动机可能并非真正想要解决方案。作者还指出,即使是有效的建议,也可能被归类为其他东西,而人们面临的困境往往也阻碍了他们采纳建议。

阅读更多
未分类

别再数世纪了

2024-07-05
别再数世纪了

文章主张人们在书写时用“1700s”代替“18世纪”这类表达,并解释了这种做法的优势:更易于理解、更简洁,并且避免了世纪与年份计算差异带来的歧义。作者还建议统一 trailing zeros 的用法,例如用“1490s”表示1490-1499年,以消除潜在的混淆。

阅读更多
未分类 世纪