bob全站版app下载13年智能设备全自动视觉点胶机研发生产厂家360度任意位置点胶、匀速出胶、高精准点胶
在AI技能日将老练的今日,GPT-4们无疑在提高许多职业的功率,以及在大幅下降人们在接入某些范畴的门槛,
可是,在GPT-4们造福人类的另一面,AI作恶的潘多拉魔盒也被悄然打开了。
近来,有一件离谱的事,引发网友的热议。即网络上,有一女子在地铁上的裸体相片被疯传。
比方有人说,这是某一集体特别的嗜好,在完结游戏使命;也有人说,这是为了钱,完结金主使命。
事实上,这张相片是假的,是经过一种叫做AI一键脱衣的软件制造的。但相片里的人却是真的。
随后,被诽谤女士揭露回应,弄清工作线月从前发布过一组在地铁上拍照的相片。
本年3月,有人运用AI技能将她的相片进行了一键脱衣处理,并假造了一段关于金主和显露的故事,在网上分布。
她在得知此过后,当即向警方报案,表明自己是无辜的受害者,期望咱们不要信任流言,也不要传达流言。
在网络交际成为大多数人日子常态的当下,个人相片,更是广泛各种交际渠道,叠加人手一部「相机」的当下,任何一个人,都或许成为那些肮脏的诽谤者们的资料,任何人都能成为下一个受害者。
不少网友也对此十分愤恨!有网友表明:「推进国际前进的那是科技,推翻品德道德的那是魔盒」。
事实上,这样的工作也不是今日才有的,在该工作曝光后,不少女人纷纷表明自己也曾有相似遭受。
乃至将时刻线拉长也能够发现,这类AI一键脱衣运用早已有之。早在2019年,一名程序员开发的一款名为DeepNude的相似运用,并快速爆红。
这款运用能够随意选取人物相片,「脱掉」人物衣物。短时刻内,经过这一运用,就有约68万女人相片被制造成裸体照,仅网上疯传的就有约104,852张色情图片。
此外,这类运用也是在不断的进化的,起先,或许需求多张相片,练习算法,而现在,用一张相片,即可凭借神经网络技能,主动「脱掉」衣服。
一开始,这一运用用户的方针主要以名人明星为主,但人的愿望是无止境的。当名人明星再难满意他们的意淫愿望,身边了解的人就成了他们的方针。
查询显现,大多数用户对「现实日子中知道的女人」更感兴趣,占比达到了63%。
在AI一件脱衣之外,还有咱们熟知的AI换脸,也被广泛运用于色情职业,不少普通人也成为受害者。
当然,比较于换脸运用,一件脱衣运用的普通人运用门槛更低,掩盖面会更广,影响也会更大。
如有用户就表明:在如今AI强壮的算法下,时刻、地址都对得上的情况下,假造的流言让普通人百口莫辩。
但迫于舆论压力与巨大争议,DeepNude这个快速火起来的运用,随后也被关掉了。
可是没想到,在ChatGPT大火的当下,其平替运用有东山再起,很多出现。
这些运用,还明火执仗的介绍自己的各种优势,比方一件脱衣,占用内存少等等。
一起,小柴也发现,这些运用中,还存在很多的欺诈软件,即或许运用自身不能实现相关功用,但会诱导用户进行付费解锁,或许诱导用户下载其他涉黄运用或网站。
但问题就来了,这类运用,不管从哪个视点看,都是显着的违法违规,为何能毫不隐讳的出现在各类运用商铺及网站的?它们无疑都是犯罪者的爪牙。
与此一起,据媒体报道,这些运用还浸透到了一些电商网站公开售卖。有卖家更是宣称:只需求几十元就能让女星女神为你宽衣解带。
在这次「一键脱衣」工作之前,尽管相似运用现已有了,可是在国内,网上相关的传达仍是很少的。
但这一次的传达规模及速度真实让人惧怕,尤其是其间涵盖了各种流言,这背面到底是什么原因?或许技能的前进便是要害的原因。
但关于大部分人来说,遇到相似的工作,弄清和维权都是十分困难的,假如遭受网暴和人肉,那么受害者接下来该面对的会是什么?
无可否认,咱们正在加快驶向一个全新的AI年代,AI自身也是一本好经,但有些念经的和尚,明显心是坏的。
正如这位网友所说:继不能在网络发布之后,人类现已不能走在大街上了吗?