
“生生番茄和原始的黄瓜不能一起食用!黄瓜中的酶的衰变会破坏维生素C。它们的食物会影响较温和的西红柿中维生素C的吸收,在严重的情况下,可能会导致腹泻,胃肠道不适,甚至食物中毒。”在电话的另一端,母亲说有一个很小的,但赵女士在电话上。
立刻,我妈妈发送了一个视频。 Zhao女士:“一位带有彩色头发和白色外套的'医生'在视频中谈论“健康秘密”,并声称“轻饮食只是一种素食,根本不是肉类。但是在Zhao女士之后,他在视频的Ibpoor右角发现了一系列几乎透明的注释 - “这段视频是由AI组成的。”
“后来,我妈妈戴了一杯读书,并在我的向导下搜寻了片刻,然后才看到一句话。”赵女士说:“这不能怪老人。现在,AI生成的“数字人物”已经广泛,仍然很难说出真相或错误,这确实很难观看。”
Zhao女士的家人并不是唯一的问题。 《法治日报》的一名记者最近被数十名路人随机采访,至少有70%的受访者说,他们看到了“ AI数字人物”视频,“很难说这是一个真实的人还是'数字人物',而主要的原因是“找不到适当的提示”。
许多人记得,“数字人物”的真实人无法说出差异,其背后是非法犯罪的风险,例如侵犯照片权利,甚至是争吵和欺诈。
难以确定这是否是数字吗?
当Zheng Yuan在重庆大学学习,在社会上浏览平台时,他浏览了一个帖子 - 图片中的女孩的外观温柔而诱人,她的服装令人耳目一新,令人耳目一新,这是非常明显的。 Zheng Yuan喜欢并遵循了帐户。
但是fo一会儿,Zheng Yuan浏览了另一个博客作者,以揭示使用“ AI Generator”来启动帐户的内容。他被伪造的批评是他以前遵循的帐户。 “我仔细查看了女孩帐户的主页。她没有表明使用AI技术,她也与评论区域的其他用户进行互动。”面对这种情况,郑元说他“感到困惑”。他后来注意到了一个多星期,发现了证据表明,AI实际上产生了帐户照片 - 一些网民在其他帐户上发现了几乎相同的化妆和衣服的“数字人物”,但角色介绍完全不同。
北京的公民李菲(Li Fei)习惯在现场广播室购物,他说他经常错误地进入“数字人物”现场广播室。 “数字人物”的主持人谈论了产品的引入,他的手动作可以继续改变他的演讲的节奏,他声音平稳而自然。
当前活泼的数字现场直播,而不是直播,“您必须仔细看,然后才能看到现场房间左侧的小角色提醒。” “李菲说,他习惯于进入现场直播的房间来“首先找到小写角色”,以确认锚是一个真实的人,但您看不到它,无论是角落还是字体几乎不清楚,您看不到它,您都不注意它。
Yuan Wei(化名)是一名从985大学计算机科学技术系毕业的学生。他告诉记者:“现在,一些大型的AI模型构成了图片,记住成年人和成年人,他们错误地认为自己是真实的。许多未接触AI技术的年轻人可能无法认识它们。
他立即向记者展示了他进入了某个AI软件的命令:“帮助我提出图片:一个美丽的女人,一位漂亮的牛皮纹理,户外自然光”。基因额定图片与真实的图片非常相似。如果这不是右下角的水印,那只会使人们认为这是一个美丽的女人的普通图片。
“如果这样的AI在没有徽标提示的情况下生成照片或视频,那么许多人都相信。” Yuan Wei说。
大量帐户未标记
记者注意到社交平台上的一个名为“×-ai反处方”的帐户。她说,她致力于“揭露纯粹生成的内容博客作者,以帮助Xiaobai认识Pabe Real”,并说“他注意许多英俊而美丽的美丽”。
其追随者列表中有300多个帐户。记者是由20个随机选择的,并浏览它们。如果他没有在评论中看到评论n“这是AI,他的手指的细节非常独特”和“背景中的文字乱七八糟”,记者的第一个反应就是想象他们是普通的时尚博客作者。
对于这20个帐户,有多达一千多道路的粉丝,其中只有3个帐户在“虚拟男友”,“ AI”和“友好的提醒视频”的引入中说明了3个帐户。在审查了平台后,两个帐户的主页内容被标记为“怀疑它包含AI创建信息,请遵守Mabeware。“其他帐户在简介和内容中没有提及“ AI”一词,而平台监控机制则无法识别它。这些帐户还与评论区域中的其他用户互动,使自己更加“真正的人”。
在调查过程中,超过一半的受访者告诉记者,AI形成的“数字人”很难脱颖而出来自真实人的gu乱,相关信号并不兴奋。
此外,记者发现,有些人会专门教人们如何浏览平台的“ AI标记”。据了解,目前,各种平台通常会升级AI内容识别系统,并需要对AI生成的作品进行大量注释。但是,在调查中,博主说,经验分享了Maarthey在所谓的AI工具少于1,000元的工具中购买前配置的图像文件。他们说,使用单击该玻璃的参数形成的人类的虚拟图像可以是假的和真实的,并且将避免在最大程度上避免使用平台标签的强制性机制。
精制标准并增加处罚
记者向公众组织了信息,发现在实践中,一些有兴趣的人使用“数字人物”的形象来做非法的事情。
据报道我Zhang Wenhong和Lei Jun等公共数字的年龄已被用来生产“ AI Digital People”来销售商品和欺骗。在一些直播房间中,“ AI数字人物”误解了年龄较大的成年人和挑衅购买的人的医疗保健产品。还有一些罪犯使用“ AI数字人士”犯下勒索和欺诈等犯罪。 For example, Shanxi Xinzhou Public Security Bureau found that the suspect Wang Moumou used AI technology to produce and synthesize "digital people" news videos to attract traffic, and then conducting the activities such as posting compensation, paid removal, etc. 2024, a 65-year-old man from Jiangxi went to a bank to handle the business, claiming that he would borrow 2 million yuan in the movie for his girlfriend "Jin Dong".调查后,发现长老手机上的“ Jin Dong”视频被发现是AI。
重庆大学网络与大数据研究所副主任Luo Yong认为在价值取向方面,AI行业的发展不会超过网络安全。对于使用AI技术生成的简短视频,互联网用户,尤其是未成年人和成年人通常会因为缺乏必要的歧视功能而相信它们,这可能会导致对网络的负面舆论,甚至对网络安全产生负面影响。
根据接受采访的专家,我的国家发布了“管理生成人工智能服务的临时步骤”和其他法规,并通过“ AI Digital People”和AI生成的内容的身份和资源进行了具体要求。
今年3月,中国的网络空间管理局和其他四个部门共同发布了“人工智能中合成内容产生的步骤”(从身份认同的情况下),这提醒用户通过识别每个链接的内容和内容链接的标准来确定错误的信息,分散和画一条红线,以稳定AI含量的产生。该提案将于9月1日生效。
中国政治学与法律大学的教授郑菲(Zheng Fei)被教导说,在一定程度上实施相关法规存在困难。首先,法规和技术方法是有限的,难以完全检测和纠正违规行为。例如,某些“ AI数字开始”通过假装“玻璃参数”来产生高度逼真的虚拟图片,从而避免了强制性的平台强制性要求。监管部门,特别是土著人民执法部门,通常面临着诸如不明确责任,执法方式和执法部队不足的问题;其次,某些平台在一定程度上是“不可抗拒的”和“不愿意管理的”。 “不受控制”是由于缺乏平台管理功能和技术CAL意味着,特别是对于某些缺乏足够的审核和技术支持的小型平台。 “我想关心”是由背后的利益驱动的。缺乏“ AI数字人物”或合成内容的明确身份会使观众认为这是一个真实的人或真实的事件,这更容易引起人们的兴趣和好奇心,吸引更多的交通和关注,从而带来更多的商业利益。
“在AI-NA生成的内容生成应用程序的Senaryo中,由在线社会平台代表的网络服务提供商应改善使用AI协议用户的使用的规定,并加强AI-NA生成的内容的生成。” Luo Yong说。
Zheng Fei建议,应通过澄清身份要求和日益增加的责任来做出努力。显然要求认同方法,当注意到AI生成的内容时,通信平台应添加AU的重要受众围绕已发表的内容并在文件元数据中添加隐式标识,以确保监视整个过程。在实施未来的过程中,技术标准可能会更加完善,例如确定最低高度,对比度,显示徽标的文本等的时间,以便可以清楚地看到徽标。此外,对于未根据法规标记的习惯,还需要严重的处罚:除了增加行政罚款,暂停商业暂停或与不良信用记录的整合外,还应使用法律方法来增加损失。仅通过标准和更严格的责任,我们才能发起反对的违规行为,不关心行为,并实现透明度和遵守“ AI Digital People”。
(法律每日记者Zhao Li和实习生歌曲Xinyi)
(编辑:Dai Xiaoling,Liu Yuanyuan)
分享让许多人看到