今天看到 DGIdb 用 AI 从 3800 万篇文献里挖药物靶点,准确率 97.8%,88% 是数据库没收录的新发现。看到这个数字的时候,我第一反应不是”哇好厉害”,而是想起了去年我写的那三个 AI 课程——每个几十万字,加起来卖了不到 30 块。
Table of contents
Open Table of contents
为什么我会血亏?因为我在做”人工挖掘”
去年刚入行的时候,我在闲鱼接单定制 AI 指令,9.9 一份,一份要写半天。那时候我干的事儿,本质上和 DGIdb 团队之前做的一样——人工从海量信息里筛选有用的东西。
他们是从 PubMed 的 3800 万篇文献里找药物-基因交互,我是从各种 AI 工具的文档、教程、案例里提炼”最佳实践”。区别在于,他们现在用 AI 做这件事了,而我当时还在傻乎乎地手工整理。
结果呢?我写了三个课程,每个几十万字,累得要死,最后卖了不到 30 块。为什么?因为信息更新太快了。我刚整理完 ChatGPT 的用法,GPT-4 就出来了;我刚写完 Midjourney 的教程,Stable Diffusion 就火了。
人工整理信息的速度,永远跑不过 AI 的迭代速度。
AI 挖文献这事儿,对我意味着什么?
DGIdb 的这个 dgiLIT 方法,让我想到一个问题:如果 AI 能从文献里挖药物靶点,那它能不能帮我从海量的 AI 工具更新日志里挖”赚钱机会”?
我现在卖 AI 账号,主要是 Cursor、Claude、ChatGPT 这些。每次这些工具更新,我都要第一时间去看更新日志、测试新功能、判断会不会影响我的生意。比如 Cursor 更新了新的 AI 模型,我就得赶紧测试我的换号器还能不能用;Claude 断供了某个地区,我就得赶紧找新的供应商。
这些事儿现在都是我手动做的。但如果有个 AI 能帮我自动监控这些工具的更新、自动分析哪些更新会影响我的业务、甚至自动给我推荐应对策略——那我不就能省下大把时间,去做更重要的事儿了吗?
说实话,我现在还没找到这样的工具。但看到 DGIdb 的案例,我觉得这事儿技术上应该是可行的。也许我该去找找有没有类似的产品,或者干脆自己搞一个?

肿瘤里的脂肪细胞,和我的”长生不老”梦想
今天还有一条新闻让我挺在意的:卵巢癌研究发现,肿瘤里脂肪细胞越多,患者越危险。脂肪细胞比例每增加 10%,死亡风险就增加 41%。
这个发现对我来说有点微妙。我关注 AI 生命科学,是因为我想借 AI 实现长生不老——听起来像民科,但我是认真的。所以我看这类新闻的角度很直接:这个技术,什么时候能让我这种普通人用上?
脂肪细胞和肿瘤的关系,以前大家都知道,但一直没太重视。这次研究把它量化了,还找到了明确的治疗靶点。这意味着什么?意味着未来可能会有针对脂肪细胞的抗癌药物。
但问题是,从”发现靶点”到”药物上市”,中间还有多远?我不懂生物医学,但我知道新药研发通常要 10 年以上。那我现在 30 多岁,等这药上市的时候,我都 40 多了。
这就是我对 AI 生命科学又期待又焦虑的原因——进展是真的有,但离普通人用上还太远。
今天没什么特别的结论,就是随便聊聊
说实话,今天的日报没有让我特别兴奋的东西。DGIdb 的 AI 挖文献很厉害,但离我的生活有点远;卵巢癌的脂肪细胞研究很重要,但我也不知道什么时候能变成药。
唯一让我有点感触的,是想起了去年那批血亏的课程。那时候我还在傻乎乎地手工整理信息,现在想想,真是浪费时间。AI 能做的事儿越来越多,我这种”卖铲子的人”,也得想办法用 AI 来提升效率。
不然哪天 AI 把我的活儿也干了,我就真的只能躺平了。
对了,最近在大理的咖啡馆发呆的时候,经常想一个问题:如果 AI 真的能让人长生不老,那到时候我还会不会想继续卖账号?
我也不知道答案。但至少现在,我还得继续干活,因为账单不会等我想明白这个问题。
📰 完整版日报请看 BioAI 生命科学日报