您的位置: 首页 > 实时讯息 >

当手机长出“大脑” 更要围起“人性护栏”丨端侧AI战事

0次浏览     发布时间:2025-03-04 08:30:00    

21世纪经济报道记者 孟荇 实习生 崔嘉豪 北京报道

随着AI向终端设备下沉,大模型正逐步嵌入智能手机、可穿戴设备等日常工具,成为新一轮科技竞争的赛道。

然而,这场技术狂欢背后暗流涌动,超出纯粹的技术范畴,演化成一场关乎社会信任与人类主体性的博弈。

2月24日,“边缘计算新纪元:端侧大型语言模型的应用、风险与治理前瞻”研讨会在对外经济贸易大学举行,专家学者共同探讨端侧大模型应用的风险与治理议题。

AI手机数据链路复杂 数据风险放大

2023年以来,随着千模大战演进,手机等终端厂商陆续推进自身大模型建设;2024年,搭载多个大模型的AI手机陆续亮相,手机厂商的端侧AI能力基本建成。时间推移到2025年,DeepSeek凭借强大的本地化部署能力,以低成本和低功耗支持复杂AI任务运行,进一步推动了手机、智能家居等终端AI性能提升。

本轮AI手机突破之处正在于大模型进入手机,让AI和终端融合。不过,尽管然国内各大手机厂商纷纷强调其端侧大模型能力,但实际上,仍高度依赖云端大模型。

北京汉华飞天信安科技有限公司董事长兼总经理、315信息安全技术实验室技术专家彭根指出,当前手机端与PC端的算力差距达数十甚至上百倍,迫使手机厂商采用“端侧轻量化模型+云端协同”的妥协方案

在端侧大模型“本地+云端”的混合架构下,数据必须频繁上传云端处理,数据采集、传输与处理链条大幅延长,用户交互信息(如语音、屏幕内容)可能被全量抓取,传统隐私保护框架面临失效危机。

21世纪经济报道合规新闻部副主任、CCIA数据安全工作委员会专家王俊强调了当前端侧AI的复杂性,涉及手机厂商、自建大模型、第三方大模型和具体APP等多个主体,数据链条延长且流向不透明;用户与模型交互密切可能涉及个人隐私和商业秘密泄露风险。

"在这种生态中,手机厂商作为硬件和操控系统提供者,具有获取基础用户数据的先天优势,能够收集用户的操作系统版本、设备型号、使用习惯和位置信息;应用开发者关注用户的浏览历史、点赞评论等行为数据,实现定制化推送;第三方服务提供商则可能大量接触用户语音类数据,为实现定制化服务进行数据分析。" 北京航空航天大学法学院副教授、院长助理、工信部工业和信息化法治战略与管理重点实验室副主任赵精武指出,

这种情形下的合规动作,往往需要用户授予多个应用和主体数据访问权限,这使得数据授权和管理变得复杂,用户可能在不知情的情况下,授予了不必要的数据访问权限。而且,各方在数据收集、使用、共享过程中尚未形成明确的责任边界,数据授权机制中存在多方主体责任划分不清问题。一方面会导致数据被滥用,另一方面则如中国社会科学院法学研究所副研究员唐林垚所说,终端厂商、应用开发者和云服务商在风险出现时可能相互推诿。

端侧大模型带来的数据流量和深度都远超以往,使得传统数据规制效果下降、难度增加。

基于以上,王俊建议应当提升数据链路透明度,特别是在跨应用操作时向用户说明数据共享情况。

可能“越界”的智能助理 便利背后存伦理问题

除却数据风险外,不少专家还提及了更遥远的隐忧。

此前,智能手机已被视为人的器官延伸,而大模型走入端侧使得手机长出“大脑”,厂商基于大模型能力推出的手机智能体,创造了一个能感知、理解并主动协助用户的助手。

恰如华东政法大学法律学院副教授、数字法治研究院副院长韩旭至所指出,端侧大模型正在引领人机交互的范式从“器官延伸”向“助手伙伴”转型。

手机智能体正在从执行简单指令的机械工具,蜕变为渗透生活全场景的“数字人格”。它们通过分析用户日程、聊天记录、位置轨迹,主动生成会议纪要、预订餐厅、规划行程,甚至模拟人类情感提供心理慰藉。其拟人化交互与无感服务,将深刻重塑人机关系

当智能助理开始脱离纯粹工具属性,具备某种社会属性,承担类似社会角色的功能,将会带来新的风险和伦理问题。

其一,功能越智能,数据泄露风险越高。清华大学人工智能国际治理研究院助理研究员宋雨鑫提醒到,多智能体间的交互可能在用户不知情情况下分享敏感数据,而“代理劫持”等新型安全威胁也已被中美研究机构同时关注,可能导致自动网络钓鱼、数据泄露等风险。

其二,交互越拟人,信任越脆弱。北京大学法学院副院长、长聘副教授戴昕则从社会关系视角出发,以人类助理进行类比。人类助理需恪守忠诚义务与职业伦理,例如不得偷窥雇主隐私、不得利用职务信息谋取私利等,但AI助理在“提升服务质量”的名义下分析用户聊天记录、推荐付费服务时,是否构成对信任关系的背叛?而当用户习惯于依赖智能助理,甚至向其倾吐情感隐私,可能忽视智能助理的这种“背叛”。

其三,服务越无界,责任越真空。宋雨鑫认为,智能助理使用户自主权与控制权面临挑战。智能体自主决策边界在哪里,错误决策的后果又由谁来承担?她举例说明国外媒体近期报道ChatGPT的Operator未经授权使用其信用卡购买物品的事件,引发对智能体控制权限设置的深刻思考。当AI跨越工具属性,介入医疗建议、法律咨询等专业领域时,错误决策带来的后果已超出传统法律的覆盖范围。

戴昕提出,端侧大模型治理的核心难题在于,绝大多数用户缺乏与“个人助理”互动的经验,无法准确形成在这一场景中有关个人信息使用的合理预期。普通人没有使用秘书或个人助理的经验,难以想象在获得此类便利服务的同时,与个人信息相关的规范应该是什么样子。

他建议先理解人的需求和行为,而非从技术出发,研究现实中已存在的“客户-助理”的关系,从中提炼适用于智能助手的规范体系,将线下相关规范转化为技术场景中的约束。他认为,有时候,观察他人的生活方式,可能比想象自己的需求带来更多启发。

宋雨鑫则提出构建以信任为核心的交互边界框架,这一框架分为三个层次:一是可控交互层面,根据风险评估与分级分类场景限制智能体决策范围,设计端保持价值敏感,通过伦理审查和价值对齐实现道德约束;二是安全交互层面,在现有规范基础上,为用户提供更多数据使用选择权,如“不用于训练”或数据不上传等选项;三是透明交互层面,通过提升透明度、增强解释性、优化用户反馈机制和引入算法审计,增强交互可信度。

在面对端侧AI带来的挑战,中国信通院互联网法律研究中心主任何波认为要统筹处理好近期和中远期的关系。AI终端正处在“渗透初期”,随着技术的不断完善,AI终端将驱动消费电子新一轮的增长曲线。建议区分近期和中远期处理方式,综合运用技术和制度政策等多种手段促进规范发展。近期可针对已暴露的突出问题,如数据隐私保护,通过开展专项检测行动、将端侧大模型纳入现有个人信息保护监测体系、加强安全测评等技术手段进行治理中远期则可考虑通过立法方式对端侧大模型的功能发展进行规范,包括制定新法和修订现有法律。

更多内容请下载21财经APP

相关文章

网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 笨百科 鲁ICP备2024053388号-2