AI“小龙虾”刚装就卸,过半受访青年担心高权限AI智能体应用引发隐私安全问题。近日,国家互联网应急中心发布关于OpenClaw安全应用的风险提示,第一批“养虾”人开始退“坑”。中国青年报社社会调查中心联合问卷网发布的一项1334名青年参与的调查显示,76.4%的受访青年关注过此类AI智能体应用。使用AI工具时,83.6%的受访青年担心个人隐私安全问题,尤其是权限较高的AI智能体应用、智能语音助手/智能音箱、AI面试官/简历筛选系统。
近期,AI智能体应用OpenClaw(又名“小龙虾”)因支持自然语言指令直接操控计算机系统、自动执行各类操作而持续引发关注,并获国内主流云平台一键部署支持。来自北京的85后王柱是一名AI创业者,他所在的团队正打造农业领域的AI产品,从今年1月起便在企业内部部署了OpenClaw。他认为,AI时代人的综合认知能力更为关键,而AI恰好能弥补执行力的不足。陈志远是北京一所高校的青年教师,每天都会使用AI工具进行信息检索,他对OpenClaw所代表的技术方向保持关注,但出于对未知风险的谨慎,他选择了暂时观望。
调查显示,最近几个月随着“小龙虾”的爆火,76.4%的受访青年关注过此类AI智能体应用。其中95后受访青年关注比例更高,为79.4%,其次是85后和90后。近两年,AI工具迅猛发展,已全面渗入日常生活。调查中,87.5%的受访青年会使用AI工具,其中26.6%几乎每天都用,43.8%经常用(每周3-5次),17.1%偶尔用(每月1-2次),还有12.5%表示“几乎不用”。
湖北武汉的00后学生周明哲平时经常使用AI工具辅助查文献、交流研究想法、规划旅游路线等。随着OpenClaw这类高权限AI智能体的出现,他的担忧也逐渐浮现。他认为,这类AI智能体应用真正的风险在于其行为的不可控性。当AI的能力从“对话”延伸到“实操”时,其可触及的个人信息范围呈指数级扩大,这也引发了用户对于个人隐私安全的担忧。数据显示,使用AI工具时,83.6%的受访青年担心个人隐私安全问题。具体来说,权限较高的AI智能体应用、智能语音助手/智能音箱、AI面试官/简历筛选系统是受访青年最担心对个人隐私安全有潜在影响的三类AI工具。
中国政法大学刑事司法学院副教授、网络法学研究所副所长商希雪表示,当前AI应用可能引发的隐私与财产风险问题,本质上仍属于个人信息泄露与滥用范畴,高权限AI智能体的出现对现有法律体系构成挑战。她认为,未来完善法律的关键在于厘清数据“为谁所用”,监管的智慧在于精准划定红线,遏制将用户数据用于非服务目的或非法牟利的行为,从而在捍卫用户核心权益的同时,为技术创新留下合理的探索空间。