你的位置:实盘配资炒股平台_实盘股票配资申请_专业股票配资开户 > 专业股票配资开户 >

股票配资实盘怎么样 DeepSeek“胡编乱造”,背刺了谁?_工作_相关_资料

股票配资实盘怎么样 DeepSeek“胡编乱造”,背刺了谁?_工作_相关_资料

第一批受害者已出现

撰文/ 黎炫岐

编辑/ 陈邓新

排版/ Annalee

用AI搜集资料、做PPT、改论文……虽然AI暂时还不能“替代”人类,但不可否认的是,AI正以前所未有的速度,渗透进普通人的日常工作和生活中。

然而,已经有越来越多人发现,AI或许并不能取代自己的工作,但或许能让自己丢掉工作。漏洞百出的数据、胡编乱造的资料和引用来源、禁不住考究的文史解读……当你以为能靠AI省时省力地完成论文或工作,却有可能反被AI“背刺”。在那些看似充足的数据和论据背后,说不定就藏有诸多错误信息。

而更令人担忧的是,当这些信息被二次加工、援引和传播,“后真相时代”将迎来更大的挑战……

展开剩余86%AI也会一本正经说“瞎话”

“年小从他爱梨栗。”当大学生薛云(化名)在准备一份课堂作业的PPT时,因为不确定这句诗里是“纵”还是“从”,便将这句诗输入她常用的AI助手,却发现,AI回复称,这句诗“化用自唐代诗人贯休《书石壁禅居屋壁》中的‘年少而何知,遇物尽虚掷。得稳即自安,年衰需警策’,以儿童贪玩类比年少时易放纵……”

薛云很惊讶,因为这句诗实际上出自于王安石的《赠外孙》。“要不是我知道这诗,真的很容易被糊弄过去。”然而,当薛玉很生气地回复AI助手,“你确定?”该AI助手再一次给出了错误的出处,“抱歉,原句出自韦庄的《与小女》……”

这打破了薛玉对AI的认知,“如果查不出相关信息给不出答案,还可以理解。怎么还能瞎编?”

当薛玉差点被“坑”,在一家自媒体公司上班的雅雅也险些因AI“捅了大娄子”。不久前,为了更新一篇与“造纸史”相关的公众号文章,雅雅需要搜集大量与之相关的资料,为了节省时间,她把需求发给DeepSeek,得到了这样一段信息:“西安博物院藏唐代‘开元户籍册’残片显示,当时已出现80g/㎡的加厚公文纸(文物检测报告)。这种以楮树皮为原料的纸张,历经千年仍保持着0.3秒的墨水渗透速度。”

雅雅将这段话写进文章后,临要发布时再做了一次相关资料核查,却发现,在网上检索不到以上这段信息的内容,“甚至无法确认西安博物院是否藏有这一文物,因为能查到的资料显示,是国家图书馆藏有相关残片。更不用说这段话里涉及的数据,更是无从考证。”雅雅很后怕,如果自己把这段话写进文章,文章又被再度援引,“后果不堪设想。”

而这并非孤例。事实上,在小红书、微博等社交平台,有不少人都分享了AI胡编乱造的情况。既有网友发现DeepSeek编造了“郭沫若在甲骨文研究中对‘各’的含义进行考释”,也有网友发现豆包在被问及水浒传不同版本的译者时张冠李戴,还有网友发现DeepSeek连法条也能胡编乱造,“援引的法律法规全是错的,甚至有几句是编的,编得有模有样……”

其中,一篇名为“DeepSeek睁眼说瞎话,编造答案被我抓现行”的笔记提到,博主为了测试AI是否诚实,故意问了一组偏门问题,并且明确提示“如果不知道就直接说不知道”,然而,“DeepSeek在回答第一个问题时说不知道,回答第二个问题就开始编造答案。被我指出来并再次强调要不知道就说不知道后,还在继续扯淡。直到我再次戳破其瞎话,并强调我有原书可以随时校验其回答后,才承认自己确实不知道。”

在这条笔记下,不少网友提到,“我问了两个工作问题,也是给我无中生有,驴唇不对马嘴”“我让AI推荐小说,它直接给我瞎编,一本都搜不出来”……

此外,不仅用AI搞工作和学术不可靠,连日常生活也不一定能信任。

此前,B站一位UP 主就录制了一期《用 DeepSeek 推荐买汕头特产,结果翻车了吗?》。视频中,UP 主向 DeepSeek 询问汕头手信店。虽然 DeepSeek 精准地读取了 UP主的思维,按照生鲜、零食、茶叶、非遗手工品的分类进行了细分,显得专业又可靠,但事实上,它所推荐的店面统统不存在。

迷信AI,只会害了自己

种种案例证明,雅雅的担忧并非空穴来风。在播客《东腔西调》的一期节目中,清华大学社会科学学院社会学系副教授严飞也曾提到,当他让DeepSeek概括简介一本书的内容时,其给出了一些并不准确的内容,“而AI虚构的内容也可能会被反复引用。”

而这样的事情,早已发生。

3月初,公安部网安局公布调查结果:网民夏某在视频《80后到底还剩多少人》中捏造数据“截至2024年末,80后死亡率突破5.2%,相当于每20个80后中就有1人已经去世”,被予以行政处罚。而据《新周刊》,这段内容经公安机关证实,正是由AI编造。

此外,据公开报道,在《黑悟空》游戏上线后不久,来自国内科技网站的一位员工在五小时内接到了20来个 “骚扰电话”。而将其电话公布到网络上的,是微软的BingAI助手。当人们在Bing搜索中输入“黑神话悟空客服”后,这位个人员工的手机号就会出现在搜索结果里。

不仅如此,AI有时还“硬加罪名”。据虎嗅,2023年,法学教授乔纳森·特利(Jonathan Turley)收到了一位律师朋友的邮件。朋友告诉他,他的名字出现在ChatGPT列举的“对他人实施性骚扰的法律学者”名单上。ChatGPT还给出了“性骚扰”信息的细节:特利教授在前往阿拉斯加的班级旅行时,曾发表过性暗示言论并试图触摸一名学生。ChatGPT引用了一篇并不存在的《华盛顿邮报》文章作为信息来源。

正如《新周刊》所说,这就是所谓的“AI幻觉”——生成式AI是有可能“胡说八道”的,它们会在看似真实的陈述中夹杂错误信息。

值得一提的是,近日,在Vectara HHEM人工智能幻觉测试中,2025年1月发布的DeepSeek-R1模型显示出高幻觉率。

对外经济贸易大学计算社会科学实验室的严展宇也曾写道:如果用于训练大模型的数据未经严格筛选,本身存在谬误,那么生成内容便可能出错。同时,AI会基于训练数据“编造”虚构数据和事件,做出前后矛盾的陈述,产生“AI幻觉”,投喂虚假信息。此外,AI生成的内容很大程度上与提问方式有关,极易受提问者的思维定式和认知偏见影响,导致集中展示特定观点、刻意回避某类信息、呈现片面真实等问题。

而当锌刻度向DeepSeek提问“为什么AI会胡编乱造”以及如何解决时,其给出回答称,AI生成内容时出现“胡编乱造”的现象,通常源于其技术原理的固有特点以及训练数据的局限性,其中包括:数据过时——若训练数据未覆盖最新知识(例如2023年后的事件),AI可能依赖旧信息编造答案;数据偏见或错误——训练数据若包含错误或虚假信息,AI可能继承并放大这些问题;知识盲区——面对超出训练范围的问题,AI倾向于“填补空白”而非承认未知。并且,“多数生成式AI无实时验证能力,无法像搜索引擎一样主动核对事实。”

至于解决办法,DeepSeek则提到,普通用户在使用时可以优化提问技巧,交叉验证与人工审核、使用专业工具等等,而开发者则需要进行模型微调、搭建知识增强架构、形成输出约束机制等等。

而目前最有效的方法是:精准提问+多源验证+工具辅助。对于关键任务(如法律、医疗),建议始终以AI输出为初稿,由人类专家最终审核。

简而言之,“技术发展史,是一部人类恐惧史”,而对AI的焦虑,或许是人类对新技术恐惧的历史重现。拥抱AI或许是难逆的大趋势,我们不应恐惧,但也不能盲目迷信。毕竟股票配资实盘怎么样,大部分AI都提醒了“内容由 AI 生成,请仔细甄别”。如果一味盲目迷信AI,最终只会害了自己。

发布于:重庆市