当前位置:首页 > 汽车 > 正文

用AI大模型炮制假消息?股市“黑嘴”新套路

  • 汽车
  • 2025-02-28 09:48:11
  • 14

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

  近期,记者发现有大量以AI问答截图形式的虚假信息在股民平台传播。这些截图中,多个账号引导AI大模型给出错误答案——将某上市公司与DeepSeek产生关联,进而炮制虚假概念、误导投资者,并引发公司股价波动。

  利用AI大模型散播谣言正成为股市“黑嘴”新套路。一批账号先是在网络平台广泛炮制不实信息,造成虚假内容扩散。当AI再度回答相关提问时,上述不实信息被纳入信源范围,大模型语料库受到“污染”,从而给出错误答案。

  AI大模型迅速迭代、发展迅猛,随之产生了一些新现象、新问题。如何避免AI沦为股市“黑嘴”操纵市场的工具?如何规避虚假信源被AI大模型纳入,造成不实信息泛滥?值得各方深思。

  多家上市公司成“AI生成谣言”主角

  在网传截图中,提问者通过引导性发问,诱导AI大模型作出特定回答,声称这些上市公司参股了DeepSeek或为其提供技术支持等,随后将这些截图在各平台传播,引发投资者热议。据上海证券报记者统计,涉及公司包括慈星股份(维权)、华胜天成、并行科技、诚迈科技、三六零等。

用AI大模型炮制假消息?股市“黑嘴”新套路

用AI大模型炮制假消息?股市“黑嘴”新套路

  对此,多家公司均已作出澄清,称公司未持有DeepSeek所属公司股份或未有合作。

  华胜天成2月11日在交易所互动平台回复称:截至目前,公司未通过直接或间接方式持有DeepSeek所属公司的股份。

  慈星股份也在互动平台明确表示:关注到近期部分社交平台上有传言称本公司或公司下属分、子公司参与DeepSeek融资。经核实,上市公司及其子公司均未参与DeepSeek的投资。敬请广大投资者注意甄别网络信息源头,理性判断,谨慎投资,注意投资风险。

用AI大模型炮制假消息?股市“黑嘴”新套路

  值得注意的是,当前不少上市公司被归为DeepSeek概念股,但实际上仅是完成了DeepSeek本地化部署,与其没有业务合作,联系较为牵强。记者发现,近期,有多家A股上市公司因股价异动,发布DeepSeek相关澄清公告,向投资者提示风险。

  财经评论员曹中铭表示,一家上市公司成为某概念股或题材股,或主营业务与之相关,或与股权存在关联,或已投入资金,或发布公告披露投资意向。但如果与某一概念或题材没有任何的关系,当然是不可能成为某概念股或题材股的。

  高频错误信息投放或影响大模型准确度

  利用AI大模型散播谣言正成为股市“黑嘴”新套路。一批账号先是在网络平台广泛炮制不实信息,造成虚假内容扩散。当AI再度回答相关提问时,上述不实信息被纳入信源范围,大模型语料库受到“污染”,从而给出错误答案。

  一位行业资深人士向记者透露,当前大模型“语料污染”可以分为几类:一是数据注入,指的是大模型从网络等渠道引用的信息本身为虚假信息;二是数据中毒,指大模型被注入大量干扰、无效文本,影响对有效信息的学习和处理;三是数据欺骗,表现为模仿他人口吻或身份的信息被大模型误判并采用;四是数据伪造,指一些捏造的不实信息被大模型纳入语料范围。

  该人士表示,当前网络不实信息可以经由自动化工具批量生成,这增加了大模型语料库的治理难度。同时,因为当前中文语料市场面临语料稀缺的问题,大模型普遍从网络渠道大规模抓取数据,致使错误信息不断累积,造成不实信息进一步泛滥。

  “如果互联网存在一定时间内投放的高频率、多次数的错误信息,对大模型提问此类问题会产生比较严重的不真实幻觉问题,这将影响模型参数,通过启动‘合理补白’机制编造虚假事实。”中国信通院华东分院人工智能部产业生态负责人刘昱仲说。

  刘昱仲建议,目前在大模型的使用上,对于投资理财等涉及事实类的问题,尤其在使用非满血版本时,需要交叉验证,或通过“请核对内容是否属实”等提示词来引导正确答案。

  如何避免虚假信源被大模型纳入?刘昱仲表示,应从技术层面规制虚假信息传播。在训练与调优大模型时,要强化数据源治理与模型纠偏机制。应建立动态数据清洗和验证流程,引入权威信源“白名单”,优先抓取政府机构、学术期刊、头部企业等可信数据,并通过对抗性训练提升模型对虚假信息的识别能力。针对已被污染的数据,需要开发实时监测工具,结合知识图谱交叉验证,及时修正模型输出中的错误关联,阻断错误答案的自我强化循环。

  应由多方共同治理

  利用AI成为“嘴替”散播虚假信息,并不能成为相关责任主体推诿责任的“挡箭牌”。

  锦天城律师事务所律师李文兵认为,首先,账号运营者无疑是主要责任承担者,根据其过错程度、行为表现可能承担民事、行政甚至刑事责任。其次,网络平台对于发布的内容应当采取实质审查机制,并承担实质的相应责任。再次,DeepSeek等AI开发者应当防止相关推理结果被滥用并限制话题范围以及应用范围。此外,监管部门应当建立信息溯源机制,追踪虚假信息的来源,并对有责任的账号运营者、网络平台以及AI开发者进行处罚。

  当前,AI大模型迅速迭代、发展迅猛,随之产生了一些新现象、新问题,不法分子利用相关漏洞“钻空子”,其中风险值得警惕。

  康德智库专家、上海兰迪律师事务所高级合伙人,兰迪全国刑事委员会副主任丁彦伶对记者表示,治理这一乱象,一是要加强技术监管,开发具备AI内容识别技术的监管工具,识别AI生成的虚假信息,及时发现并阻断虚假信息传播。同时,加强数据监管,确保AI训练数据的真实性和合法性,防止数据污染。

  二是完善相关法律,在技术不断发展的今天,立法的及时性也是法律人需要思考的问题。刑法在保有其谦抑性的原则下,市场的繁荣其实更多需要行政和民事责任的监管。在科技高度发展的今天,明确AI生成内容的保护原则,明确法律责任主体,提高违法犯罪成本是非常有必要的治理措施。

  三是行业自律,要推动金融行业制定AI应用伦理规范,明确禁止利用AI操纵市场的行为,平衡AI技术创新与金融风险的防控。

  资本市场上各类信息鱼龙混杂、真假难辨,对于普通投资者来说更需要谨慎辨别。“AI只是工具,帮助我们搜集信息,对AI生成的投资建议应保持谨慎,进行多方验证,避免误导。最重要的是要理性投资,根据自身风险承受能力,制定合理的投资策略,不盲目跟风。”丁彦伶说。

  作者:王彦琳

有话要说...