优惠论坛
标题: 当人工智能能仿造声音并被骗子利用时,你有办法保护自己不被骗吗? [打印本页]
作者: 天策-羿司 时间: 2023-3-10 11:53
标题: 当人工智能能仿造声音并被骗子利用时,你有办法保护自己不被骗吗?
人工智能现在究竟有多强呢?或许像是把人工智能投入进画画,小说创作,论文攥写这些事情离我们有些太远,所以我们难以察觉到它对我们生活的影响。但如果有人用人工智能来进行诈骗呢?那你可能就要小心了。根据最新的报导,现在的人工智能技术已经能够让骗子模仿亲属的声音,继而去骗那些受害人!当声音都能伪造的时候,你还能拍胸脯说自己100%不会被骗吗?
[attach]4596550[/attach]8 R3 L( L6 g: k2 _. c6 K2 V
近段时间以来,以ChatGPT为首的一系列人工智能席卷全球,既能创作,又能聊天,几乎无所不能的能力让许多人开始使用人工智能。但是随着技术的普及,这项技术也逐渐沦落成为许多不法分子的犯罪工具。在最新的报导中,就有骗子以人工智能的技术为基础,继而研发出人工智能语音生成器用以骗取人们的财富。
4 R6 ?# t A* i, h- j8 A
根据媒体报导,数以千计的受害人称自己在被骗的时候根本难以察觉到正在与自己对话的人并不是他们的亲属。许多受害人表示,在对话时,由于对话的是他们所熟悉的亲属声音,所以当时丝毫没有警戒心,最终钱财就这样被骗走了。而在美国,这类型的诈骗案已经成为了2022年第二大热门的诈骗案,一共达到36000起案件,涉及金额超过1100万美元。
/ t8 g: v2 x! P& o% n8 T0 x
目前人工智能尚且属于早期范畴,所以对此类诈骗案的防范自然比较少,所以上当的人就会比较大。但是羿司思考了一下,当人工智能真的能够以假乱真的时候,难道我们真的有办法去辨别真假吗?羿司想到光是辨别的成本就如此巨大的情况下,对此类诈骗案的防范成功率究竟有多高感到悲观。
2 ^: I. W2 u I4 I6 w) ^2 }但不管怎么说,技术本身是无罪的。我们只能寄望于未来这类诈骗事件能够得到有效的扼杀,毕竟人工智能的技术已经是我们未来怎么样都逃不过的一项技术。比起逃避它,考虑如何用好才是更为实际的做法。最后给大家推荐一下我们的【体育猜黄博红】活动~只要在【易发国际】进行存款500元就可以获得1次回帖竞猜,然后只要猜中赛事的总黄卡数量的话,就可以获得148元的奖励!而只要比赛出现红卡的话,奖金还会根据红卡数量翻倍增加~所以这样的活动不要错过啦,赶紧来参加【体育猜黄博红】吧~
1 _# i8 D& w H) H
传送门:【天策社区】联合【易发国际】体育猜黄博红活动说明!
作者: 天策-萌二姐 时间: 2023-3-10 15:39
太可怕啦~连声音都能模仿了 真的分辨不出真假呢 最好保护自己的方法就是陌生号码尽量不接或提防了
作者: 德罗星 时间: 2023-3-10 15:58
不管他冒充谁都不可能骗到我!主要的原因还是因为我没有钱啊!
作者: 为赢而来 时间: 2023-3-10 16:09
我不怕,我有终极防骗,防盗,防一切钱财流失的方法 :就是让自己没有钱财。越穷,在这方面越不心慌。
作者: 爬格子的瘦书生 时间: 2023-3-10 17:13
科技越来越进步了我们的防骗能力也要加强啦
作者: 带笑颜 时间: 2023-3-10 20:27
那是好几年前了,同学QQ被盗了,问我借钱$ J0 ^9 I M7 l# z2 j. I2 z
我就觉得不对劲,同学之间轻易不借钱啊
' l. G1 J) P# U3 U7 L他她说:手头缺钱,问我借5000块钱。+ I1 |+ q) n! y4 p* u! A; Y1 @+ n
然后我就给同学打电话了,她说,她QQ被盗了6 U' n$ W) f. G" f' V3 t9 k
我心里有底了,我说,咱俩啥关系啊,你放心,我一会儿给你送去% V# i& x6 \# U: y- i* A T" O3 C
骗子说不用,你给我转过来就行。9 c) i& S3 {$ b, e' m8 b7 ^
我说,那不行,我给你送去,后来把骗子气的下线了,不和我聊了,哈哈3 N8 p3 ]. O) c, s A: q
我们这些老实人提高警惕,骗子也不一定能成功。
作者: 秋色从西来 时间: 2023-3-10 20:50
这种情况我就遇到过,给会所打电话,里面明明听着是林志玲的声音,我一激动就同意了3000的价格,结果一见面再听,我靠,妹子说话像郭德纲!还有更过分的,网购一个刘亦菲版的女朋友,办事的时候声音居然是贾玲!搞得我两个多月都摆脱不了心理阴影啊!所以我最讨厌声音诈骗的了!
作者: 天策-瑶娥 时间: 2023-3-11 00:14
变声器好像也是一些主播或是玩游戏的时候爱用的. 有些男生用变声器变成女生声音网上骗男生买游戏里的东西给他. 现在科技发达, 真的是没在自己面前都千万别相信
作者: rainwang 时间: 2023-3-11 14:17
有高明骗术的骗子,再利用人工智能技术时,只怕我们很难防范的了!
作者: 当你老了 时间: 2023-3-12 08:07
哈哈,这个也是要都铎注意的了,人工智能也不是万能的啊!
作者: 人生如赌 时间: 2023-3-12 21:46
这样的事情我还没有遇到过
作者: 小钱儿 时间: 2023-3-13 00:58
人工智能的圈子实在是太大了,我以后研究的领域就是人工智能,目前正在转行了,只不过我所研究的方向是人工智能里面的机器视觉。现在国内研究声音领域最强的应该就是科大讯飞,其他的公司我倒还真没有听过,但是大家不必担心,能够研究人工智能声音领域的人,一定不缺钱,就算缺钱也不会拿这个骗人的勾当去做诈骗。
7 W3 z, ?6 U+ d. q( K! ]! k现在国内没有这样的新闻发生,很有可能是骗子的文化水平和素质还是很低,只能用一般的短信诈骗,诈骗老人骗取信任,这些低级的骗术,还好现在我国研究人工智能领域的人比较少,一旦像外国那么普及,骗人不择手段,这个社会的信任危机大大增强,后果真的不堪设想。
作者: sikong 时间: 2023-3-17 00:16
现在各种诈骗方式真的是防不胜防,当高科技被这些骗子掌握,那么所有人都可能成为受害者。以前还只担心老人孩子受骗,现
* n5 |3 T/ I" F7 p1 m* ^* y( r4 f& }9 S* H* K( N
在看来自身也难保了。对付这种克隆声音的诈骗方法虽然也有比如“pindrop”这种软件来分辨真假,但又有多少人知道这些软件. b. B0 P% D5 z: |# k# R
) o0 i/ S* G! v- _4 ~1 X
呢。怪不得现在公安部对诈骗打击的如此严厉,现在几乎每天都能收到类似的防范短信。6 D, O' d+ i+ W/ H; E5 M
/ u( u. C# q8 x/ ]6 v
我想,其实应对的方式就一种,凡是涉及到金钱和隐私的,必须见到真人或者电话微信视频联系,但其实电话、视频依然可以被
# a; @3 g4 B- q. R5 v' x A6 V0 B9 m" @4 r/ H3 Z8 j- @" y
骗子伪装,只能希望大家张亮眼睛,管好自己的钱包吧!
作者: sikong 时间: 2023-3-17 00:45
我回复的怎么被删除了?再回下。。。。
2 \7 Q7 c/ P5 D) N
3 H* u! z+ `" ?8 e3 l) Z& S2 k人工智能声音这个确实有点可怕,即使有软件可以避免,但没有多少人会用,甚至没有人知道还有这种软件。' {; ]6 h( T! f
) h2 _& `; \# d B2 b3 V- S那么唯一能避免的方式就是看好自己的钱财,一旦涉及到钱财或者隐私,就一定要万分注意,没有百分百之
& s# l2 p8 ? T% q% J1 E$ Y% s" @6 [" |% }2 I
百的确认就不要打开自己的钱包。
欢迎光临 优惠论坛 (https://www.tcelue.ooo/) |
Powered by Discuz! X3.1 |