返回上一页  首页 | cnbeta报时: 00:23:24
被AI带货 张文宏回应:假消息像蝗灾一次次害人
发布日期:2024-12-13 13:18:06  稿源:北京青年报

最近,有网友发消息称,“张文宏是不是带货了?”视频中,张文宏在卖一种蛋白棒,家里的老人信以为真,已经开始下单了。据媒体报道,在名为“般画234”的账号视频中,“张文宏”反复介绍着一种产品,口型是他的,声音也是他的,但稍微懂点AI的小伙伴们,一眼就能分辨出,这是AI合成的视频!此外,该账号的商品橱窗截图显示,这款蛋白棒已售出1266件。


12日晚,记者已无法在平台搜索到该账号。


针对此事,记者联系到了张文宏医生,他表示:“这样的卖货账号不止一个,且一直在变,我多次向平台投诉但屡禁不绝。很多不明真相的老百姓、特别是有些对AI不是很熟悉的、年纪较大的市民,就很容易相信。我看购买量在不同的地方好像都有不少。我在发现这个事情后立即投诉过那个AI合成的视频,但他的账号一直在换,我最后也没有精力了。这些假的AI合成信息就像蝗灾一样,一次又一次发生,像漫天飞过来的蝗虫一样害人。事实上,从平台投诉结果来看,我觉得最终也难以解决问题。”

除了向平台方投诉,张文宏称自己也曾考虑过报警,但对方看不见摸不到,就像幽灵一般难以描述,只能寄希望于相关部门加强监管。“报警总要有个对象对吧,现在报警报谁呢?他一天换一个账号,而且全是虚拟的,我向谁报警?所以我认为,他侵犯的是消费者的利益,我觉得相关部门应该处理。”张文宏说。

记者注意到,12日,上海市消保委针对该事件严厉发声,表示未经当事人授权的AI合成带货行为已经构成了对消费者的欺诈,呼吁监管部门严厉处罚。

【多知道点儿】

学会三招识别AI“换脸换声”

在进行视频对话时,我们可以要求对方在脸部面前,通过挥手的方式去识别实时伪造的视频。在挥手的过程中会造成面部的数据干扰,他所伪造的人脸会产生一定的抖动或闪现,或是一些其他异常的情况。

在点对点的沟通过程中,可以问一些只有对方知道的问题,以此来验证对方的真实性。

此外,我们还可以让对方通过按鼻子按脸的方式,观察其面部变化,真人的鼻子按下去会变形,但AI生成的鼻子不会,同样脸部也是一样的。


值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自身出发,做好信息保护,提高警惕。

例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”就会更真实。


此外,在涉及资金交易等场景下,要多留心眼,不要轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。

综合中国青年报、新闻坊、侬好上海、“新闻透视”微信公众号

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 00:23:24

文字版  标准版  电脑端

© 2003-2024