您现在的位置: 红豆社区 城市论坛 玉林论坛 → AI“看病很准,包治百病”?需警...
本版版主:八叔 | 心静自然凉 | 偶是路人
社区广播站:
  推荐:玉林频道  
  标题: AI“看病很准,包治百病”?需警惕“AI幻觉” (您是本帖第248个阅读者|本帖回复: 5)
ZJJ701的头像
头衔:注册会员
绿豆:152 黄豆:0
经验:60
主帖:21回帖:21
注册时间:2024-03-04
来自:
  回复  引用  悄悄话 评价  收藏  编辑 看楼主  [更多功能] 发表于 2025-03-04 15:29 第1楼  
|帮助|
有关“带着DeepSeek看病”的话题引发了大家的关注和讨论,有人分享了自己用AI问诊的经历,称不仅AI给出的答案和医生给出的建议是一样的,甚至医院的检查报告还没出结果,AI就已经帮忙分析好了。

很多时候,当我们问AI一个问题时,可能会发现,AI给出了一个详细、具体、很有逻辑的答案,而当我们就其中的内容做进一步核实时,却发现这些信息存在虚构和编造,这就是AI幻觉。AI幻觉在各大模型中都难以避免,如果大模型的训练数据存在偏差、不全面,AI就容易“学偏”,生成不准确的结果。同时,AI模型大多基于概率生成,缺乏对个案的真实感知和对事实的深度理解,这种“概率游戏”使得AI在生成内容时,容易陷入“自说自话”的境地,甚至编造看似合理实则荒谬的信息。

AI幻觉现象已被不少网友发现,有人发帖表示,在用AI进行文献分析时,答案里会出现一些查无此文的文献;有人发现,AI会把一本书的作者安到另一个人的身上;还有人发现,AI给出的答案存在上下文不符、逻辑不一致的现象。这提醒我们,AI生成的内容并不是完全可靠的,要理性看待和使用,谨防虚假和编造内容的出现,尤其是在医疗等严肃领域,更不可完全信奉AI,以免对自身的健康造成危害。

警惕AI幻觉并不是说我们就要因噎废食,而是要及时从技术层面加以改进,在伦理和规范层面未雨绸缪。AI的发展需要在进步中不断反思,更要在反思中持续前行。唯有如此,我们才能让AI成为推动社会进步的有力帮手,而非隐患之源。


慕鱼居士的头像
头衔:版主
绿豆:298125 黄豆:11
经验:39551
主帖:1265回帖:24983
注册时间:2003-11-26
来自:广西大北路
  回复   编辑 引用  悄悄话   只看TA  点评此帖    0 发表于 2025-03-05 11:00 第2楼  


六万山人的头像
头衔:注册会员
绿豆:103780 黄豆:44
经验:85427
主帖:1629回帖:80475
注册时间:2005-04-05
来自:广西玉林
  回复   编辑 引用  悄悄话   只看TA  点评此帖    0 发表于 2025-04-27 09:14 第3楼  
天马行空来的头像
头衔:注册会员
绿豆:10396 黄豆:28
经验:4811
主帖:353回帖:3576
注册时间:2006-03-01
来自:
  回复   编辑 引用  悄悄话   只看TA  点评此帖    0 发表于 2025-04-27 10:23 第4楼  
我的做法是:

①有事问AI,还要懂得如何问。这非常关键!我在这里发有许多案例。实际上AI也会从你的提问内容来判断你的能力,你问题的深度广度,也有决定AI回答的深度、广度和准度。并且要多问几个,先对事情做全面了解。

②对AI回复的事情要有判断能力,发现疑问的,要举证质疑他,要让他知道你是不能胡弄的。要知道AI也是需要训练的,回答的内容可能会因人而异,也可能投其所好。

③AI回答的内容,只能“仅供参考”。但只要问话人表现出自己的深度、广度和能力,AI的回答内容就能八九不离十了。

这不,我刚才就把楼主的全部内容输给DS,让他有深度的说说这个事情和背后的逻辑,他马上认可了这种说法,说明了其中原因,最后引用《柳叶刀》2023年评论指出:"AI不应替代医生的大脑,而应成为医生的望远镜",这种工具化定位才是破解困境的关键。






[此帖于 2025-04-27 10:29 被 天马行空来 编辑]
天马行空来的头像
头衔:注册会员
绿豆:10396 黄豆:28
经验:4811
主帖:353回帖:3576
注册时间:2006-03-01
来自:
  回复   编辑 引用  悄悄话   只看TA  点评此帖    0 发表于 2025-04-27 10:42 第5楼  
随着AI的进化和发展,有什么技术手段来降低甚至杜绝"AI幻觉"现象?






本版内容仅代表网民个人观点,不代表本网立场