
Seedance 2.0很快停止了人脸直播上传功能,但大学张宇静湖北省的一名学生仍然很担心。在社交媒体时代,人们经常在网上上传图像、音频等。 “这类数据一旦泄露或被滥用,很容易引发欺诈和信息骚扰,我们普通民众没有还手之力。”我觉得使用AI的安全感正在下降。
这些工具在人们的日常生活中变得越来越普遍,ChatGPT、DeepSeek、Sora 和 Seedance 等模型一次又一次地重新定义了对人工智能的理解。近日,中国青年报、中国青年报发起了一项以大学生为主的青少年使用人工智能工具的调查,共收集有效调查1390份。调查结果显示,受访者最常使用的AI工具是语言生成(77.12%),其次是图像生成(65.32%)、语音视频处理(30.86%)和办公学习(27.84%)。受访者关心的问题d 关于人工智能目前可能带来的风险,包括“人工智能幻觉”以及产生误导用户的虚假信息(58.13%)。存在侵犯肖像权、著作权等个人权利的可能性(52.52%)。人工智能生成的内容可用于实施欺诈并威胁财产安全(44.39%)。 AI生成的内容受商业利益影响,可能缺乏客观性(27.12%)。
近 60% 的受访者担心他们与人工智能的对话可能会被用来建立准确的用户档案。
张钰晶每天使用频率最高的AI就是豆宝,几乎遇到任何问题都会第一时间咨询AI。然而,一场突如其来的突袭,让他非常担心自己个人数据的安全。 “当我在豆博上搜索自己的名字和学校时,一下子就出现了很多信息,顿时让我心寒。”张宇静表示,虽然AI训练是基于大量数据,普通用户无权了解或控制其信息如何被收集和使用。
张宇静提到的平台收集用户信息的行为,也让就读于武汉工程大学的毕张洪波感到无奈。 “目前,各平台往往要求用户同意所有条款后才能使用,否则无法注册。这种‘超载条款’让用户在保护隐私方面别无选择。”张宏波的妈妈喜欢利用短视频平台的一键视频生成功能,将家庭照片拼接起来,添加动画、文字和音乐,分享生活瞬间。然而,每次上传照片时,妈妈都特别担心照片上传后面部信息被泄露。张洪波还关注日益成熟的AI语音合成、真人成像等技术。个人信息如果被泄露和使用由不法分子实施诈骗,后果是可怕的。张洪波还发现,抖音和视频账号现在充斥着大量人工智能生成的内容。根据内容的不同,即使看起来很专业,也可能存在不正确的信息。一些年轻人发现很难识别它。年长的家庭成员经常落入陷阱,经常向家庭群组发送人工智能生成的假科学视频。
北京某大学学生李敖(化名)就遇到过AI获取他个人地址的情况。在与AI的对话框中输入“如何领取具体补贴”后,AI回答道:“根据你当前的位置,湖北省荆门市……”几秒钟后,Leo盯着那根绳子,心里有一种不安的感觉。 “那天我用的是网页版,手机应用获取地址权限前有弹窗询问,但使用网页版时似乎没有明确提示当我后来向AI询问此事时,AI解释说该地址是使用系统信息进行验证的,确保用户的个人隐私不被泄露。“但我仍然不太舒服被阅读的感觉,”Leo说。
刘敏英,50岁,辽宁大连人,是一名狂热的网购者,也喜欢使用人工智能。然而,我注意到,当我与同事交谈时,我提到了我的喜好,比如想买某种类型的面包或某种类型的衣服,第二天我的手机上就会出现相关推荐。 “我觉得他们在听我的谈话,我什至无法隐藏我的消费习惯或日常生活。”为了避免这种情况,你在与家人和朋友聊天时故意将手机放在单独的房间里。
中国青少年校园媒体调查显示,受访者担心人工智能对话将用于精准用户画像和精准营销(57.70%)。人工智能工具收集过多的个人信息,例如手机号码和位置信息(48.78%)。一些公司利用社交网络的信息进行培训(33.96%)。等
受访者认为人工智能担心我提供的信息会欺骗或误导我。
Leo 认为,人工智能近年来取得了显着进步,使我们能够深入思考并解决专业问题。 Leo 在设计课程时使用人工智能最多。您的工作中需要处理的数据庞大、复杂且混乱,因此需要多个预处理步骤。现阶段的AI可以极大地帮助提高效率。然而,他们也发现人工智能仍然存在局限性,例如经常产生误导性信息。
“人工智能曾经告诉我,它给我的代码会执行五个步骤来清理数据。我逐行查看,发现这些代码实际上只完成了两个步骤,”他解释道。 “也许是因为谈话上下文太长,字符串会自行记忆,导致幻觉。每次发生这种情况,你都必须手动重新检查并从头开始编写代码。”
云南省大学生王欣怡管理着学校校园媒体的微信公众号。写文字是我的日常工作。当它无法提供合适的副本时,它会向人工智能寻求帮助。人工智能生成的内容质量高、文字精美、看起来完美。当文案基本编写完毕并准备好进行审查时,它要求人工智能列出引用内容的来源。当他在网上一一核对来源时,他愣住了,他说:“我找不到任何来源,所有作者的名字都是虚构的。 “如果我当时没有仔细核实,盲目使用其中列出的信息和来源,那么发布的内容就是虚假的。”
中国青学传媒的一项调查显示,受访者自己(16.91%)、同龄人(29.57%)他们的长辈(29.35%)遇到过相信人工智能生成的内容是真实的或被欺骗的情况。
张宇静发现,一些生成式AI故意“取悦”用户,从用户的角度说话,这可能会导致认知偏差。 “我说某些专业很赚钱,但AI只告诉我该专业的就业福利。下次我说这个行业不赚钱时,他们立即找到一堆反面例子,没有客观分析利弊。”张宇静坦言,这种“愚蠢”的回答让用户对自己的原创知识更有信心。
张玉静家里的冰箱异常结冰。我问AI如何调节温度,但得到的答案与正确的方法恰恰相反。 “冰箱的温度控制范围是1-7度,正确的设置是夏天1-2度,冬天5-6度。结果AI告诉我冬季调整为1-2。幸亏我自己反应了,否则冰箱里的冰可能会变厚。”张宇静说,当他指出错误时,人工智能只是道歉并纠正,但无法解释为什么会出现这样的错误。“我们只能保证生成的信息已在网上发布,但不能保证其可靠性。”张宇静说。
刘明英认为,人工智能工具对中老年人并不友好。刘明英表示,会出现AI工具操作流程复杂或者即使想要扩展源码也无法扩展的情况。当她焦虑并想要一个简单的答案时,人工智能进行了广泛的分析。 “我们希望AI能够根据我们的需求灵活调整响应。”
84.18%的受访者遇到过人工智能推荐产品或服务。
王欣怡最近发现一些人工智能工具正在被集成融入广告内容。过年前几天,王欣怡在朋友圈看到朋友“吹嘘”自己通过钱文平台购买的1分钱奶茶。 “我感觉今年人工智能领域的竞争变得非常激烈,”他说。 “我从来没有想过将人工智能能力发展到这个程度,并让它与企业一起工作。”
喝了方便又实惠的奶茶后,王信仪更加谨慎了。 “目前,AI可以帮你点奶茶,但未来,AI可以帮你点奶茶。我们能订机票或者高铁票吗?AI与我们的生活交织得越紧密,对隐私的开放就越开放,成本也越高。”在您看来,AI的发展是好事,但我们在使用它时一定要小心。因此,王欣怡女士手机上所有AI应用的权限管理都非常仔细,确保她无法随意使用访问她的相册和位置信息。”
据青学传媒调查显示,84.18%的受访者遇到过人工智能推荐产品或服务,其中经常遇到的人为14.03%,偶尔遇到的人为36.19%,很少遇到的人为33.96%。对于人工智能提出的产品和品牌推荐,12.52%的受访者表示拒绝,因为他们认为人工智能反应的客观性会受到影响。 54.75%的受访者表示应谨慎对待,质疑是否受到商业利益的影响。 25.03%的受访者表示,只要建议合理、有用,就可以接受。 5.90%的受访者对此表示赞赏,因为他们认为这是接收购买建议的有效方式。 1.80%的受访者认为这不是问题。
张宏博也隐隐约约感觉AI被打印了无论是有意还是无意,都会在他身上投放广告。自从做了手腕手术后,她在考虑运动时如何保护手腕之前咨询了豆宝。豆宝教给他的方法之一就是使用腕带。回答完问题后,我看到了几个可以继续单击的选项。其中之一是:“您能推荐一些腕带吗?”张宏博顺应了这一趋势,豆博推荐了“Keep”、“Laura Star”等品牌的手链。张洪波不知道这些无广告推荐背后是否真的存在商业合作,但他对AI推荐产品是否易于使用表示怀疑。
张玉静也曾遇到过类似的情况。您想购买一台索尼相机,并且想了解索尼不同系列产品的性能差异。我问了AI一个问题。他收到的回复不仅包括产品介绍,还包括产品的直接链接。在训练期间,他问AI如何补充“Omega-3”。在推荐相关食品后,AI还增加了各种鱼油的购买链接。 “这是有道理的,而且很容易相信。”不过,张宇静认为,这些看似客观的答案实际上隐藏着一种消费引导,至少应该明确标注“广告”二字。
刘明英还可以让元宝等AI主动推荐保健品和化妆品。但即使她明确表示想要一个价格实惠的品牌,AI 仍然会推荐一些不是她目标的昂贵品牌。为此,刘明英表示:“我担心他们会故意推销产品来销售。”
在使用人工智能的过程中,张洪波尝试了各种方法来避免错误信息和各种风险。但在他看来,这些方法都是治标不治本,AI产业的健康发展需要集体治理。向上。 “首先,用户条款应该更加透明,为用户提供选择权。比如,他们可以看到是否要授予平台某些关键权限,而不是通用权限。”张洪波建议,应在人工智能生成的内容中添加数字水印,以便清楚地识别用户。同时,应建立完善的举报渠道,监控虚假信息和非法推荐。更重要的是,要开展AI扫盲,提高全民的识别能力,让每个人都能理性地看到和使用AI。”
面对人工智能经常提供误导性信息的事实,Leo 认为需要对其进行配置以对抗“幻想”。 “我们希望人工智能有勇气说它不知道。 “承认自己不知道比编造一个看似合理的答案要好得多,”利奥说。
虽然张宇京觉得AI还存在一些问题,但他并不认为否认它的价值。他只是希望这个行业变得更加规范。我希望它朝这个方向发展。 “我们希望人工智能不要自满,更加客观。通过回答问题,人工智能可以提供多种视角和解决方案。更重要的是,人工智能信息来源必须更加严谨,通过引用权威机构和标签来源的内容,用户可以。并呼吁平台确保台湾加强自律,特别是在生物数据的使用和人工智能生成内容的审查方面,并建立全面的反馈和纠正机制。“只有打开人工智能信息的“黑匣子”,建立筑牢数据安全的防线,才能让用户真正放心地使用人工智能,让技术真正服务于人类。”
中国青少年学校媒体调查显示,受访者认为可以建立便捷的渠道,让学生更容易上学。公众举报人工智能产生的侵权或有害内容(57.99%)。所有人工智能生成的图像都必须具有易于识别的“水印”或徽标(50.22%)。 %);企业披露底层训练数据来源以及核心AI模型的安全和伦理审查状况(49.28%);要求用户许可使用人工智能培训相关材料的平台信息必须清晰可见(42.30%)。
中青报/中青报记者 毕若旭 王俊丽 实习生 陈嘉兴 李英玉
来源:中国青年报2026年2月27日第06页【编辑:于晓燕】
“一揽子批准”后,谁对官员的错误负责?
德国总理梅尔茨访问杭州盛赞中国仿人机器人
如何从历史的角度认识近代中国?
AI提供的虚拟微信ID可以添加到真人身上吗?专家口译员
为什么小马的形象是东方和西方共同的?
埃尔丁竞争银行ero de la suerte,la tasa de interés de algunos products es más alta que la tasa de interés de los certificados de pósito
月全食将在三月带来壮观的天剧
高市“送礼”事件引广泛批评 反对党称“不后悔”
美乌峰会:泽连斯基希望一年内结束冲突,特朗普称“一个月内”
“扫码领豪礼”?谨防盗用交通卡
“2000后”让丝路青年潮人参与机器人文旅新场景
超过8000亿日元的春节旅游费用中,隐藏着校友聚会的新解决方案。
人形机器人在春节期间出现在荧幕上,为何节后反应却如此平淡?
看海、看山、看生物,有生之年一定要去陵水。
盲盒7天内不能以任何理由退换货。合法吗?
德国总理继续ues中文出版:“德国与中国之间的经贸合作可以释放巨大潜力”
豆瓣8.2,网友一边学习一边看剧。 “和平年”是怎么来的?
今年春天如何保持健康?它内调阴气,滋阴生津。良好的皮肤护理