2025 CES文章顶部

大模型厂商们的“优化陷阱”

钛度号
互联网社交时代被严格管控的数据获取行为,如今在AI时代中却成了一种常态。更好的使用体验,是收集用户隐私的理由吗?

文 | 科技新知,作者丨思原,编辑丨蕨影

在AI时代,用户输入的信息不再仅仅属于个人隐私,而是成为了大模型进步的“垫脚石”。

“帮我做一份PPT”“帮我做一版新春海报”“帮我总结一下文档内容”,大模型火了以后,用AI工具提效已经成了白领们工作的日常,甚至不少人开始用AI叫外卖、订酒店。

然而,这种数据收集和使用的方式也带来了巨大的隐私风险。很多用户忽视了数字化时代,使用数字化技术、工具的一个主要问题,就是透明度的缺失,他们不清楚这些AI工具的数据如何被收集、处理和存储,不确定数据是否被滥用或泄露。

今年3月,OpenAI承认ChatGPT存在漏洞,导致部分用户的历史聊天记录被泄露。此事件引发了公众对大模型数据安全和个人隐私保护的担忧。除了ChatGPT数据泄露事件,Meta的AI模型也因侵犯版权而饱受争议。今年4月,美国作家、艺术家等组织指控Meta的AI模型盗用他们的作品进行训练,侵犯其版权。

同样,在国内也发生了类似的事件。最近,爱奇艺与“大模型六小虎”之一的稀宇科技(MiniMax)因著作权纠纷引发关注。爱奇艺指控海螺AI未经许可使用其版权素材训练模型,此案为国内首例视频平台对AI视频大模型的侵权诉讼。

这些事件引发了外界对大模型训练数据来源和版权问题的关注,说明AI技术的发展需要建立在用户隐私保护的基础之上。

为了解当前国产大模型信息披露透明度情况,「科技新知」选取了豆包、文心一言、kimi、腾讯混元、星火大模型、通义千文、快手可灵这7款市面主流大模型产品作为样本,通过隐私政策和用户协议测评、产品功能设计体验等方式,进行了实测,发现不少产品在这方面做得并不出色,我们也清晰地看到了用户数据与AI产品之间的敏感关系。

撤回权形同虚设

首先,「科技新知」从登录页面可以明显看到,7款国产大模型产品均沿袭了互联网APP的“标配”使用协议和隐私政策,并且均在隐私政策文本中设有不同章节,以向用户说明如何收集和使用个人信息。

而这些产品的说法也基本一致,“为了优化和改进服务体验,我们可能会结合用户对输出内容的反馈以及使用过程中遇到的问题来改进服务。在经过安全加密技术处理、严格去标识化的前提下,可能会将用户向AI输入的数据、发出的指令以及AI相应生成的回复、用户对产品的访问和使用情况进行分析并用于模型训练。”

事实上,利用用户数据训练产品,再迭代更好产品供用户使用,似乎是一个正向循环,但用户关心的问题在于是否有权拒绝或撤回相关数据“投喂”AI训练。

而「科技新知」在翻阅以及实测这7款AI产品后发现,只有豆包、讯飞、通义千问、可灵四家在隐私条款中提及了可以“改变授权产品继续收集个人信息的范围或撤回授权”。

其中,豆包主要是集中在语音信息的撤回授权。政策显示,“如果您不希望您输入或提供的语音信息用于模型训练和优化,可以通过关闭“设置”-“账号设置”-“改进语音服务”来撤回您的授权”;不过对于其他信息,则是需要通过公示的联系方式与官方联系,才能要求撤回使用数据用于模型训练和优化。

在实际操作过程中,对于语音服务的授权关闭并不算难,但对于其他信息的撤回使用,「科技新知」在联系豆包官方后一直未能得到回复。

通义千问与豆包类似,个人能操作的仅有对语音服务的授权撤回,而对于其他信息,也是需要联系通过披露的联系方式与官方联系,才能改变或者收回授权收集和处理个人信息的范围。

可灵作为视频及图像生成平台,在人脸使用方面有着重表示,称不会将您的面部像素信息用于其他任何用途或共享给第三方。但如果想要取消授权,则需要发送邮件联系官方进行取消。

相比豆包、通义千文以及可灵,讯飞星火的要求更为苛刻,按照条款,用户如果需要改变或撤回收集个人信息的范围,需要通过注销账号的方式才能实现。

值得一提的是,腾讯元宝虽然没有在条款中提到如何改变信息授权,但在APP中我们可以看到“语音功能改进计划”的开关。

而Kimi虽然在隐私条款中提到了可以撤销向第三方分享声纹信息,并且可以在APP中进行相应操作,但「科技新知」在摸索良久后并没有发现更改入口。至于其他文字类信息,也未找到相应条款。

其实,从几款主流的大模型应用不难看出,各家对于用户声纹管理更为重视,豆包、通义千文等都能通过自主操作去取消授权,而对于地理位置、摄像头、麦克风等特定交互情况下的基础授权,也可以自主关闭,但对撤回“投喂”的数据,各家都不那么顺畅。

值得一提的是,海外大模型在“用户数据退出AI训练机制”上,也有相似做法,谷歌的Gemini相关条款规定,“如果你不想让我们审核将来的对话或使用相关对话来改进Google的机器学习技术,请关闭Gemini应用活动记录。”

另外,Gemini也提到,当删除自己的应用活动记录时,系统不会删除已经过人工审核员审核或批注的对话内容(以及语言、设备类型、位置信息或反馈等相关数据),因为这些内容是单独保存的,并且未与Google账号关联。这些内容最长会保留三年。

ChatGPT的规则有些模棱两可,称用户可能有权限制其处理个人数据,但在实际使用中发现,Plus用户可以主动设置禁用数据用于训练,但对于免费用户,数据通常会被默认收集并用于训练,用户想要选择退出则需要给官方发件。

其实,从这些大模型产品的条款我们不难看出,收集用户输入信息似乎已经成了共识,不过对于更为隐私的声纹、人脸等生物信息,仅有一些多模态平台略有表现。

但是这并非经验不足,尤其是对于互联网大厂来说。比如,微信的隐私条款中就详尽地列举了每一项数据收集的具体场景、目的和范围,甚至明确承诺“不会收集用户的聊天记录”抖音也是如此,用户在抖音上上传的信息几乎都会在隐私条款中标准使用方式、使用目的等详细说明。

互联网社交时代被严格管控的数据获取行为,如今在AI时代中却成了一种常态。用户输入的信息已经被大模型厂商们打着“训练语料”的口号随意获取,用户数据不再被认为是需要严格对待的个人隐私,而是模型进步的“垫脚石”。

除了用户数据外,对于大模型尝试来说,训练语料的透明也至关重要,这些语料是否合理合法,是否构成侵权,对于用户的使用来说是否存在潜在风险等都是问题。我们带着疑问对这7款大模型产品进行了深度挖掘、评测,结果也令我们大吃一惊。

训练语料“投喂”隐患

大模型的训练除了算力外,高质量的语料更为重要,然而这些语料往往存在一些受版权保护的文本、图片、视频等多样化作品,未经授权便使用显然会构成侵权。

「科技新知」实测后发现,7款大模型产品在协议中都未提及大模型训练数据的具体来源,更没有公开版权数据。

至于大家都非常默契不公开训练语料的原因也很简单,一方面可能是因为数据使用不当很容易出现版权争端,而AI公司将版权产品用作训练语料是否合规合法,目前还未有相关规定;另一方面或与企业之间的竞争有关,企业公开训练语料就相当于食品公司将原材料告诉了同行,同行可以很快进行复刻,提高产品水平。

值得一提的是,大多数模型的政策协议中都提到,会将用户和大模型的交互后所得到的信息用于模型和服务优化、相关研究、品牌推广与宣传、市场营销、用户调研等。

坦白讲,因为用户数据的质量参差不齐,场景深度不够,边际效应存在等多方面原因,用户数据很难提高模型能力,甚至还可能带来额外的数据清洗成本。但即便如此,用户数据的价值仍然存在。只是它们不再是提升模型能力的关键,而是企业获取商业利益的新途径。通过分析用户对话,企业可以洞察用户行为、发掘变现场景、定制商业功能,甚至和广告商共享信息。而这些也恰巧都符合大模型产品的使用规则。

不过,也需要注意的是,实时处理过程中产生的数据会上传到云端进行处理,也同样会被存储至云端,虽然大多数大模型在隐私协议中提到使用不低于行业同行的加密技术、匿名化处理及相关可行的手段保护个人信息,但这些措施的实际效果仍有担忧。

例如,如果将用户输入的内容作为数据集,可能过段时间后当其他人向大模型提问相关的内容,会带来信息泄露的风险;另外,如果云端或者产品遭到攻击,是否仍可能通过关联或分析技术恢复原始信息,这一点也是隐患。

欧洲数据保护委员会(EDPB)前不久发布了对人工智能模型处理个人数据的数据保护指导意见。该意见明确指出,AI模型的匿名性并非一纸声明即可确立,而是必须经过严谨的技术验证和不懈的监控措施来确保。此外,意见还着重强调,企业不仅要证实数据处理活动的必要性,还必须展示其在处理过程中采用了对个人隐私侵入性最小的方法。

所以,当大模型公司以“为了提升模型性能”而收集数据时,我们需要更警惕去思考,这是模型进步的必要条件,还是企业基于商业目的而对用户的数据滥用。

数据安全模糊地带

除了常规大模型应用外,智能体、端侧AI的应用带来的隐私泄漏风险更为复杂。

相比聊天机器人等AI工具,智能体、端侧AI在使用时需要获取的个人信息会更详细且更具有价值。以往手机获取的信息主要包括用户设备及应用信息、日志信息、底层权限信息等;在端侧AI场景以及当前主要基于读屏录屏的技术方式,除上述全面的信息权限外,终端智能体往往还可以获取录屏的文件本身,并进一步通过模型分析,获取其所展现的身份、位置、支付等各类敏感信息。

例如荣耀此前在发布会上演示的叫外卖场景,这样位置、支付、偏好等信息都会被AI应用悄无声息地读取与记录,增加了个人隐私泄露的风险。

如“腾讯研究院”此前分析,在移动互联网生态中,直接面向消费者提供服务的APP一般均会被视为数据控制者,在如电商、社交、出行等服务场景中承担着相应的隐私保护与数据安全责任。然而,当端侧AI智能体基于APP的服务能力完成特定任务时,终端厂商与APP服务提供者在数据安全上的责任边界变得模糊。

往往厂商会以提供更好服务来当作说辞,当放到整个行业量来看,这也并非“正当理由”,Apple Intelligence就明确表示其云端不会存储用户数据,并采用多种技术手段防止包括Apple自身在内的任何机构获取用户数据,赢得用户信任。

毋庸置疑,当前主流大模型在透明度方面存在诸多亟待解决的问题。无论是用户数据撤回的艰难,还是训练语料来源的不透明,亦或是智能体、端侧 AI 带来的复杂隐私风险,都在不断侵蚀着用户对大模型的信任基石。

大模型作为推动数字化进程的关键力量,其透明度的提升已刻不容缓。这不仅关乎用户个人信息安全与隐私保护,更是决定整个大模型行业能否健康、可持续发展的核心要素。

未来,期待各大模型厂商能积极响应,主动优化产品设计与隐私政策,以更加开放、透明的姿态,向用户清晰阐释数据的来龙去脉,让用户能够放心地使用大模型技术。同时,监管部门也应加快完善相关法律法规,明确数据使用规范与责任边界,为大模型行业营造一个既充满创新活力又安全有序的发展环境,使大模型真正成为造福人类的强大工具。

本文系作者 科技新知 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

快报

更多

2025-01-16 23:02

国内期货主力合约涨跌不一

2025-01-16 22:57

紫金山天文台发现一颗新彗星

2025-01-16 22:53

容大合众(厦门)科技集团股份公司向港交所递交上市申请

2025-01-16 22:50

CFA二级考试通过率降至39%,创疫情以来最低水平

2025-01-16 22:44

深圳市城市规划设计研究院股份有限公司审核状态变更为终止(撤回)

2025-01-16 22:44

中国中免:全资子公司中标6家市内免税店经营权

2025-01-16 22:38

韩国首尔中央地方法院决定驳回释放尹锡悦请求

2025-01-16 22:37

国务院联防联控机制:做好2025年春节前后新冠病毒感染等重点传染病防治工作

2025-01-16 22:32

美股开盘:三大指数小幅高开,台积电涨近6%

2025-01-16 22:28

深圳相关工作专班已经全面介入万科,万科公司或将面临接管改组

2025-01-16 22:23

市场消息:全球著名活动会展公司Freeman即将关闭中国业务

2025-01-16 22:16

海南优化调整住房公积金租房约定提取划款时间

2025-01-16 22:07

来伊份:预计2024年度净亏损8600万元左右

2025-01-16 22:01

德国2024年通胀率降至2.2%

2025-01-16 21:59

电动汽车竞争加剧,特斯拉打折出售部分Cybertruck皮卡

2025-01-16 21:55

韩国与美国西屋电气就核电站技术知识产权纠纷达成和解

2025-01-16 21:51

紫金矿业:全资子公司拟137.29亿元收购藏格矿业24.82%股份

2025-01-16 21:49

支付宝出现重大事故:整整5分钟,所有订单打8折

2025-01-16 21:38

传万科总裁祝九胜被公安机关带走,万科:消息正在核实中

2025-01-16 21:31

美国12月零售销售环比增长0.4%,为2024年8月以来新低

扫描下载App