8455澳门新

图片 7
2012中国传播年度人物评选在京揭晓-美通社PR-Newswire
8455澳门新 1
EDM群发邮件不进垃圾箱的办法

8455澳门新谷歌调整算法:加大色情图片搜索难度

谷歌调整算法:加大色情图片搜索难度

• 作者 书聿 •
2012年12月13日09:06 • 新浪科技

  北京时间12月13日早间消息,谷歌刚刚对图片搜索算法进行了调整,无论是否有意搜索色情图片,这类内容的搜索难度都将加大。

  谷歌发言人解释了这一调整:“我们不会审查任何成人内容,而且希望向用户展示他们所寻找的内容——但除非用户明确搜索色情内容,否则我们不希望展示这类信息。我们使用算法为搜索请求选择最相关的结果。如果你搜索成人内容,无需更改默认设置即可找到——如果你的搜索词模糊不清,你只需要进一步明确搜索请求即可。图片搜索的设置现在也采用了与网络搜索相同的方式。”

  换句话说,如果用户关闭了“安全搜索”(SafeSearch),并在关键词中附带“色情”之类的明确词汇,仍然可以找到色情内容。

  但此举或许不足以满足部分用户的要求。有用户在Reddit中发帖称,即使关闭“安全搜索”,也很难找到明确的色情内容。

  谷歌表示,此举只是将图片搜索的设置与现有的网络和视频搜索保持一致。但值得注意的是,谷歌以往的改版都是为了方便用户寻找内容,而本次却反其道而行之,因此显得不同寻常。

  “色情报复”(revenge
porn),指的是情人或夫妻分手后,其中一方将另一人的隐私照片发到网上,或有人盗取他人照片四处传播,甚至是勒索。面对这种遭遇该如何应对,也许大多数受害者只是默默忍受,但是Google看不下去了。6月19日,美国互联网搜索巨头谷歌公司宣布,关于把前交往对象裸照等散布到网上的“色情报复”行为,将应受害人等的要求把照片从搜索结果显示页面中删除。未来几周内,谷歌将在网站上上传申请删除照片的表格。

12月初,Tumblr宣布将全面禁止任何成人内容,并于12月17日正式施行新规定。以根除平台上的色情相关社区,同时这一举措也将从根本上改变该服务的使用方式。

  今年2月,加州法院就认定凯文·波拉特(Kevin
Bollaert)通过自己经营的两家网站发布一些报复性色情图片来敲诈他(她)人钱财。波拉特的一个网站发布了受害女性的裸体或淫秽色情图片,这些照片往往都是由受害者的前女友或男友发布,而且发布的图片还会配上受害者姓名、年龄以及其它相关的信息。为此,受害者要想删除这些照片,就不得不向图片发布者支付相应的报酬。目前,波拉特已被判处18年有期徒刑。截至今年6月1日,加州已经成为美国21个制定打击报复性色情图片的州之一。

8455澳门新 1

  谷歌公司主管搜索业务的高级副总裁阿米特·辛海(Amit
Singhai)在博客中声称,该公司将对其往常的“在搜索结果中体现整个网络”的政策进行重大改动。阿米特的博客内容如下:“我们的理念一直是,搜索结果应当体现整个网络的内容。但是,报复性色情图片强烈地展现了个人的隐私内容,而且也是一种情绪化的恶意破坏结果,只能让受害者受损——受害者多以女性为主。因此,未来我们将尊重人们的要求——在谷歌搜索结果中删除那些未经受害者同意的裸体或淫秽色情图片。这是一种限定性的政策,类似于我们如何对待删除其它极度敏感个人信息相关要求的问题,例如那些可能在我们的搜索结果中出现的银行帐号和署名等类似的敏感信息。”不过,阿米特也承认,谷歌的行为“不会解决报复性色情图片的所有问题”,但他希望这各尊重受害人要求的做法将能够产生实质性的帮助作用。

8455澳门新 ,自2007 年上线以来,Tumblr 一直以允许 NSFW
内容而闻名,这是公司管理层一时的头脑发热还是想要“改过自新”了?不论Tumblr
的意图如何,想要为社交网络加入审核机制,过滤色情图片/视频是需要投入技术和人力的。

  Google表示,这类照片严重侵犯了个人隐私,伤害了个人感情,尤其是女性,所以从今往后,Google将根据受害人的请求,从搜索结果中删除那些为兴趣课发布的躶体或者色情照片。Google还说,这显然不能彻底消除“色情报复”问题,因为那需要相关网站或者发帖人自行删除内容,但是Google会尽自己的绵薄之力,至少不允许搜索它们,以尽量减少对人的伤害。

在Tumblr 的官方通告中,公司 CEO Jeff D’Onofrio 表示,“……
将采用产业标准的机器监控、不断加大的人类监控等方式禁止成人内容。”

  对于包含银行账号、个人签名、儿童性虐待等内容的照片,Google也允许提出删除申请。

但是,才“睁开眼睛”的计算机并不那么完美。”Wired
在近日的一篇文章中称。许多 Tumblr 用户在 Twitter
上抱怨其鉴别系统存在许多误判行为。如奥克拉荷马大学法学院教授 Sarah
Burstein
只是发布了几张设计专利图,就被标记了。文章表示这不仅效率低下,而且伤害了用户的感情。不少
Tumblr 的用户失望地涌向推特,《纽约时报》称这些用户是“弃船而逃”。

  

其实在多年前,Tumblr 就面临着准确识别 NSFW 内容的问题。2013 年,Yahoo 11
亿美元收购 Tumblr,4 年后 Verizon 收购雅虎,Tumblr 归于 Verizon 子公司
Oath,并在不久之后推出了“安全模式”,能在搜索结果中自动过滤成人内容。

  社交网站“脸谱”和“推特”已禁止此类照片上传。谷歌也加入其中,有望减少受害者。

人工智能虽然可以同时处理大量图片,但毕竟不是人类,难免会出现一些令人哭笑不得的差错。特别像Tumblr
这样的微博客平台,用户群体复杂,色情与非色情的界限非常难以把握。

允许转载,转载时请标注来源和作者。

8455澳门新 2

稿件一经选用,即视为作者同意本网免费将其使用于本网或与本网有合作关系的非赢利性各类出版物、互联网与手机端媒体及专业学术文库等。

图像鉴黄系统流程是什么?

由稿件引起的著作权问题及其法律责任由作者自行承担。

鉴黄系统的工作流程是这样的:首先是要建模,其次是制定色情图片的分类标准,然后收集大量素材,进行分类标注,最后用这些标注好的素材进行训练,让机器去学习各个分类里面的特征,不断调整自己模型的参数并最终得到最佳的识别模型。

而当机器对图像进行识别以后,这些图像数据会转化为数字化的信息,带入到模型里面进行计算,
根据计算值将图片标注为“正常、性感、色情”三个类别。

因为“识别”的不完美性,这样的系统也会有人类的参与。在经过识别之后,系统把判断结果和概率告诉使用方,使用方会再根据结果做对应处理,比如自动删除、或者人工接入复审。如果在人工复核环节发现机器识别有误,则会有针对性地对相同场景的图片进行数据学习,
并调整参数, 直到错误率达到最低值。

对于开发团队来说,做该领域的产品困难在于如何获取大规模已标注数据、集成有GPU
的计算集群以及针对自己的项目调参数,团队需要不断地输入新数据,持续迭代以提高机器识别准确率。

既有图片又有视频怎么办?

在短视频流行的今天,各家科技公司还要面对海量的视频内容。图片是静态的,视频/直播是动态的,而视频内容的完整审核包括对图片、文字、语音的审核,所以会更加复杂。以对视频图片审核为例,在鉴别视频和直播时,可以先把动态的内容解码成图片帧,这就与静态图片鉴别方法相似了。

直播实时性强,对响应时间要求高,并且里面的场景和人物变化比较大,审核要求比较严格,所以识别难度会相对比较大,需要实时不断对房间进行截帧传输识别,并且结合人工来实现预警处理;视频在画质整体上比图片和直播差,一定程度会影响识别效果,通常是以视频为单位进行等时间间隔截图,以一个视频多张截图的结果来综合判断视频是否色情违规。

如果企业对视频或直播的每一帧图片都进行识别,数据量将变得非常巨大,运营成本会很高。面对这类情况,一般会采用对视频抽帧的方式进行处理。例如,一分钟视频,可以按照时间段来抽取6-15
帧左右的图片进行识别处理,以此减少计算成本。

审核能否完全依赖机器?

针对人们屡屡吐槽的“误杀”问题,在提高AI
算法准确度的同时目前还需依靠人类做最后的判断。误判分为两大类型:把色情内容误判为正常内容,以及把正常内容误判为色情内容。

1)色情判正常:在光线昏暗场景,或者距离很远时背景干扰比较大的场景下,以及有特效干扰的情况都有可能造成误判;衣着正常但实际上露点、隐晦的动作和姿势等。

2)正常判色情:穿着暴露但实际没露点,物体形似性器官,接近于色情动作但实际不是(譬如手抓棍状物体、手正常放在敏感部位)等。

单纯的算法和模型是可以把机器训练到完全正确地判断情况的,但是在实际应用中,机器没有自主思考和自己的主观意识,仍然需要人工辅助进行确认。例如客户提供的画面过于模糊或者说光线过暗,以及训练数据的不能完全覆盖性等种种客观原因影响下,机器打不出很高的分确认图片,这都需要人工来辅助。

8455澳门新 3

“Tumblr 网友:即使这样我也不愿离去。”

看来,AI
图像识别系统可以用现有的,“鉴黄师”则非请不可。在宣布禁止成人内容之后,Tumblr
的 app
终于再次出现在苹果应用商店里。这辆车最终会开向何处?让我们拭目以待。

相关文章

No Comments, Be The First!
近期评论
    功能
    网站地图xml地图