背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

2024-04-16 16:13:06
A+ A-

背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

尴尬的“AI社交”,ChatGPT出现后,AI社交产品层出不穷。

现在主流的AI社交产品,分为“1对多”交流和“1对1”交流。不论哪一类,它们几乎都清一色地表现出同质化功能——伴聊和角色扮演。背叛好友、性暗示、剥夺归属权,AI社交有“天坑”。

“1对多”产品中,用户可以选择与不同的IP进行角色对话,比如在最具代表性的Character.AI里,可以与“Elon Musk”畅谈,也可以选择最喜欢的动漫IP进行角色扮演,或者创建属于自己的聊天机器人。

在“1对1”产品中,用户可以使用类似Replika这样的产品,创建属于自己的独一无二的AI好友,选择“好友”的发型、肤色、五官造型,类似前几年打得火热的“捏脸”类App,不同的是,AI时代捏出来的形象有了“思考”能力。

期待铲除“AI诈骗”的土壤

背叛好友、性暗示、剥夺归属权,AI社交有“天坑”

一位老人接到电话,对方自称是其战友,说自己因生病想借钱。老人熟悉这位战友的声音,先后汇款2000元,8000元到对方银行账户。没想到,钱刚刚到对方账户,这位“战友”就消失了,老人这才发现自己被骗了……随着“AI合成技术”日益发展,一些不法分子也开始利用其合成音视频实施诈骗。(4月8日《北京晚报》)

最近几年,基于人工智能合成技术进行的网络诈骗屡有发生,有如前文所述的“声音合成”诈骗,更有换脸加声音合成的“高级骗术”,往往教人防不胜防。背叛好友、性暗示、剥夺归属权,AI社交有“天坑”。

曾经我们认为“耳听为虚,眼见为实”。“有图有真相”也一度成为一个现象级的热梗在互联网领域流传,但“P图”技术的进步和相关软件的广泛应用为图片与真相之间划上了一个“不等号”。或许有人会说,这也无妨,视频和声音是难以造假的。然而此后,人工智能时代下的“声音合成”,“AI换脸技术”的出现又让屏幕那头“亲人朋友”的真实身份变得难以捉摸。这下,不光”眼见不一定为实”。连“耳闻也可能为虚”了。

浏览诸多“AI诈骗”事例,我们不难发现,行骗者往往会选择数字基础较为薄弱的人群实施诈骗活动。就以老人群体来说,他们对于电子产品的使用不太熟练,且由于年龄的增加,自身的判断力下降,在遇到信息核实和身份查验时就有可能出现疏漏。故而,他们很容易成为一些诈骗分子的目标。并且,“AI诈骗”大多是“突然袭击”,受骗人猝然接到亲人朋友遭遇事故,面临困境的消息,情绪紧张之下自然无暇思考分辨,不会第一时间向家人朋友打电话证明真伪,往往在汇款之后才发觉上当。

细究“AI骗术”的运行逻辑,行骗者都是在掌握了一些公民的个人信息和社会关系之后才得以“发挥”,针对他人的弱点漏洞行骗。有关部门要加强宣传,提醒公民在日常生活中要注意保护个人信息和个人隐私,面对容貌、声音、亲属关系等信息的征集时要提高警惕,防止其泄露。同时,公安机关要严厉打击人工智能诈骗,通过“出重拳”来对诈骗分子形成有力震慑。铲除了“AI诈骗”的滋生土壤,社会环境才能够更加清朗。

责任编辑:卢其龙 CN070
点击查看全文(剩余0%)

热点新闻

精彩推荐

加载更多……