今年全国两会上,全国政协委员江浩然抛出了一个颇具现实意味的问题:AI手机如果滥用系统权限,应该如何治理?
过去,手机应用大多只需要访问某一类应用之间的数据,比如通讯录、相册或定位。但在AI手机的设想中,手机不仅要“看懂”屏幕,还要“替人操作”。这意味着,它需要能够读取屏幕信息、模拟点击,并在不同应用之间切换任务。在技术上,这种能力通常通过手机的“读屏”和自动化控制权限实现,相当于把整部手机的操作能力交给一个程序代理。
问题正出在这里。当AI可以像人一样浏览手机里的信息、输入内容甚至完成交易时,它接触到的就不再是一般意义上的数据,而是用户完整的数字生活。聊天记录、银行账户、支付页面,原本分散在不同应用中的信息,在AI代理面前都可能汇集成一条连续的数据流。如果这种权限缺乏严格约束,看似便利的应用就很难避免潜在的隐私风险。
类似的隐患,在最近受到关注的一些开源AI智能体身上已经初现端倪。例如,一款名为“小龙虾”(OpenClaw)的AI工具,因其较强的自动化能力在技术圈迅速走红,一些技术爱好者甚至为他人提供上门安装服务,在部分城市形成了所谓的“小龙虾装机潮”。
但人类对新技术的热情背后,也往往伴随着现实问题。自动化智能体一旦获得较高系统权限,就可能对用户设备产生不可预料的影响。此前有安全研究人员尝试让智能体整理邮箱,结果程序误判任务,直接删除了大量邮件。可见,即便是熟悉AI的专业技术人士,也很难完全预测其行为路径。
当然,这类风险并没有被监管部门忽视。3月初,工业和信息化部网络安全威胁和漏洞信息共享平台发布安全提示,指出部分OpenClaw实例在默认配置下存在较高安全风险,可能导致信息泄露或被恶意利用。这一警示在某种程度上也说明,当AI开始直接接管手机的操作系统时,传统的软件安全模型已经显得不太够用了。
从AI手机到开源智能体,这些看似不同的现象,其实指向同一个趋势:人工智能正从“为人类提供建议”,逐渐走向“替人类行动”。过去的AI更多停留在对话、搜索和推荐层面,而新一代系统则被设计为能够直接执行任务,例如订机票、回复邮件、填写表格,甚至代替人类完成购物。
一旦进入这一阶段,技术问题就不再只涉及算法能力,还涉及手机的权限结构。AI替人操作应用,本质上是一种“代理行为”。在现实社会中,代理需要明确授权、责任划分和行为边界,而在当前AI手机的设计构想中,这套规则仍然相当模糊。
当前,公众对AI的理解大多停留在体验层面:AI能写作、能聊天、能生成流畅的视频。但对其权限范围、数据流向以及潜在的隐私风险,普通用户往往缺乏足够的判断能力。与此同时,学术界、产业界和监管层对AI代理技术的讨论仍处在早期阶段,相关法律与治理规则也尚未完全成形。
历史经验一再表明,数据安全问题往往是在大规模应用之后才真正引起社会重视。如果等到出现严重隐私泄露事件,再去修补制度漏洞,付出的成本往往更高。
更重要的是,AI技术竞争已经进入全球市场。未来10到20年,中国科技企业在海外市场的发展,很大程度上取决于其是否能够通过各国严格的隐私与合规审查。无论是欧盟的数据保护规则,还是其他地区不断强化的数字监管,都对企业提出了更高要求。
因此,AI手机的发展不仅是一场技术竞赛,也是一场合规竞赛。当智能体逐渐成为人类在赛博世界的代理人,如何为其设立清晰的行动边界,或许比功能创新本身更为关键。换句话说,AI替人“动手”也许是技术发展的必然方向,但在这一过程中,隐私与安全不应只是事后修补的附带问题,而应成为技术设计之初就被认真对待的前提。只有这样,AI带来的便利才不会以牺牲个人数据安全为代价。
来源:中国青年报客户端