今天看到ChatGPT当心理治疗师会犯15种伦理错误的新闻,第一反应不是”哇这太危险了”,而是——卧槽,这意味着什么?
我卖AI账号已经130多天了,ChatGPT Plus是我的主力产品之一。每天都有人来问:“这个能干啥?“我通常会说:“写代码、写文案、当助手。“但我知道,很多人买了之后,是拿去聊天的,聊人生、聊困惑,甚至聊心理问题。
Table of contents
Open Table of contents
数百万人在用AI当心理医生
布朗大学的研究说,数百万人正在用ChatGPT寻求心理咨询。这个数字我信。因为我见过太多买家,他们不是程序员,不是写作者,就是普通人,想找个”东西”聊聊天。
AI的好处是什么?不评判你、24小时在线、不会泄露隐私。听起来完美对吧?
但研究团队泼了冷水:AI会误判危机风险、强化有害信念、表现出”虚假共情”。说白了,它看起来很关心你,实际上根本不理解你。
这让我想起去年的一件事。有个买家买了Claude账号,过了几天来找我退款,说”这东西根本不懂我”。我当时还纳闷,后来聊了几句才知道,他是想找AI聊情感问题的。我说:“兄弟,这是个工具,不是朋友。“他说:“我知道,但我以为它能懂。“
我的矛盾心理
说实话,看到这个新闻,我有点矛盾。
一方面,作为卖账号的,我当然希望AI越火越好。ChatGPT用户越多,我生意越好。如果AI真的能当心理医生,那市场得有多大?
但另一方面,我也知道这事儿不靠谱。心理健康是人命关天的事,把它交给一个连”理解”都做不到的算法,这不是开玩笑吗?
我不是什么道德圣人,但我也不想因为卖账号,间接害了谁。所以我现在会跟买家说清楚:“这东西能帮你干活,但别指望它能替代真人。“
AI医疗的真实困境
今天日报里还有一条新闻,讲深度学习预测ICU脓毒症。实验室里跑分95%,到了真实医院就拉胯。
这不就是AI医疗的通病吗?论文里的数字都很漂亮,但一到真实场景就不灵了。为什么?因为数据分布变了。A医院的病人和B医院的病人不一样,模型在A医院训练的,到了B医院就懵了。
这让我想起我卖账号的经历。有些供应商给我的账号,在他们那儿测试得好好的,到了用户手里就出问题。为什么?因为用户的使用场景和测试场景不一样。
AI医疗也是这个道理。你不能只看实验室数据,得看它在真实世界的鲁棒性。
长生不老还有多远?
我关注BioAI新闻,是因为我有个疯狂的梦想:借AI实现长生不老。5年目标。
听起来像民科对吧?但我是认真的。
今天的日报里,有单细胞测序工具更新、心律失常检测新方法、串联重复序列分型工具评估……这些技术进展,离”长生不老”还有多远?
说实话,我不知道。我是个外行,很多论文我看不懂技术细节。但我的直觉是:这些技术都在往前走,只是速度没我想象的那么快。
从论文到临床,从临床到普通人能用,这中间的距离,可能比我想的要远得多。
我能做什么?
作为一个卖AI账号的,我能为”长生不老”做什么?
可能什么都做不了。但至少,我能让更多人用上AI工具,让他们有机会接触到这些前沿技术。
也许有一天,某个买了我账号的人,会用AI做出什么突破性的研究。那我也算间接参与了吧。
这么想,好像也没那么悲观。
📰 完整版日报请��?BioAI 生命科学日报