2024 T-EDGE文章详情页顶部

揭秘今日头条“网络安全委员会”,人工智能如何让网络更安全

中国的互联网巨头们在净化网络、维护安全生态上责任重大,但他们的共同意愿,根本上还需要足够强大的技术能力来支撑。

图片来源:东方IC

图片来源:东方IC

我国首部规范互联网信息环境的基础法规《网络安全法》在6月1日之后正式实施。

该法实施前,各大互联网巨头就纷纷加码信息安全及内容自查等方面的投入,阿里和腾讯分别通过各自的云服务输出其安全技术接口,或强制推行实名制。百度先后发布公告实行百度账号实名制百度网盘自6月1日起也要求实名制,百度在安全方面,早就推出了大数据平台4A安全体系;以个人安全业务起家的360也有完善的大数据安全平台。

在新法实施同一天,今日头条宣布成立“网络安全委员会”。

钛媒体获悉,该委员会是一个独立组织,由技术、运营、审核多部门的核心人才共同参与,从注册实名制、社区自律以及审核等方面,保障用户安全和内容。

不生产内容、专注于内容分发的今日头条,跻身国内内容分发平台第一阵营,尤其是在2015年9月这家公司推出头条号以来,头条号的数量迅速增长,从用户规模到内容体量,这都要求在平台运营规则上进一步规范化。

对于内容分发平台而言,网络安全最主要的议题是内容安全。以坐拥上亿用户的微信公众平台就曾在产品上经历过无数次迭代,在内容过滤、账号封禁、用户举报机制上做足了功夫。今日头条抽调了 20 余人的技术团队,专门匹配给网络安全委员会,显然,在网络安全建设方面依然是一个技术升级的信仰者。

近日,今日头条首度向钛媒体透露了其在网络安全和内容审核上的独家“法宝”。作为“幕后英雄”的网络安全委员会,到底是如何运作的?算法模型、人工智能,到底是怎么帮助人工完成安全审核?

一、实名制升级:接入face++识别技术

有自媒体从业者曾向钛媒体证实,头条号开放平台的注册极为严格。在账号注册上,按照相关政策要求用户注册必须绑定手机,而且坚持人工审核。

2017年,新成立的网络安全委员会对实名制进行了一次技术升级,即通过AI技术对注册用户进行身份实名认证,这项识别服务采用了旷视科技(face++)提供的人脸识别、活体检测技术,来判断每一位实名用户各项信息的匹配程度。

钛媒体编辑在今年3月份头条号发布的一则“严厉打击发布不实负面信息的公告”中看到(如下图),一共20个头条号遭遇禁言处罚,并有3名头条号运营者被封禁。

注册头条号的用户,首先都将要求阅读并接受一份《头条号管理制度》,于头条号名称规范、简介规范、审核标准、处罚标准等都做出了明确规定。

由于每个身份证仅限注册一个头条号,与其他平台相比,头条号的审核规则是最严格的。一旦因运营者违规操作被平台封禁账号,“被封禁账号的身份证也不予释放”,这也意味着,严重的违规操作者可能面临永久加入“黑名单”的风险。

二、审核机制:如何“干掉”虚假信息

在内容审核方面,各大内容型平台历来都是高成本、高投入,内容把关的技术能力,对于内容型平台来说更是一条生死线。钛媒体对国内某第一阵营直播平台的采访中发现,内容运营的人力成本、技术和设备采购成本加在一起,一个典型的内容型平台在内容自查上的投入要超过一个亿人民币。

低俗、谣言、标题党——堪称国内外各个内容平台的三大毒瘤。

针对于此,今日头条在内容审核上采取了一套独家的“四审机制”,也就是说,在今日头条的内容审核流程中,文章100%过人工审核,通过“人防”和”技防“的结合,所有文章通过技术过滤、人工审核、盲审、复审的“四审机制”才能发布。

“盲审”环节,充分体现了机器+人工审核的优势:机器根据规则和比例抽取文章,将同一篇文章同时分配给两位审核员,如果两人判断一致则通过,判断不一致会再分配给第三个人进行把关,通过这种模式最大程度降低了因审核员主观原因、个人问题造成的误放、漏放。

那么,最为头疼而且隐蔽的标题党,又是怎样拦截的呢?今日头条技术负责人向钛媒体介绍,“标题党可以通过人工+机器三层拦截,进行识别。”

今日头条研发团队建立的数据模型,目前可以准确识别出“标题党”的内容。一篇完整的文章进入平台机器经识别和处理,最终从“机器”流程中放出来,今日头条的技术负责人向钛媒体还原出了一个完整的识别过程:

当平台识别出标题党的关键词后,“发送弹窗”的方式提示并劝导作者打住这样的行为;通过模型识别而来的标题党,平台将召回并人工确认;最后一道工序交给人工——人工复审将对从各种渠道召回的文章进行最终的人工评估复审。

今日头条还首度向钛媒体披露了这样一个数据:截止2016年底,算法模型对“头条号”低质、低俗内容的识别准确率提高到80%,并可将头条号平台上超过90%的低俗内容识别出来。

对于拥有庞大用户的内容平台来说,提高自律能力也是最大限度提高“审核”效率的途径。今日头条也设置了完善的举报功能,在今日头条,有一部专人守候的举报电话7×24无间隙工作,同时设置了电话、邮箱、APP、PC等不同类型的举报端口。

头条网络安全委员会下设由业界专家和资深用户组成的内容自律组织,监督平台内的内容,共同治理网络生态。

为了防止虚假信息扰乱经济秩序和社会秩序,今日头条还利用人工智能技术,让机器结合用户举报和跟帖评论,甄别虚假信息。此外,今日头条还推出精准辟谣功能,如果用户阅读过的内容被证实为谣言,系统将第一时间向所有看过该文的用户推送相应辟谣文章。

三、辅助人工的技术“外脑”

资讯分发平台在内容传播上的最大困扰,是“旧闻新编”、“虚假信息”的受害者不计其数,文字识别技术是这类垃圾信息的第一道屏障,文字、图片、视频乃至广告,一旦不符合内容质量和内容安全的要求,即便骗得过人眼,也很难骗得过机器。

据悉,今日头条的文字识别技术,还可以识别出用户评论的内容,并且将其派给人工处理。

随着短视频内容的爆发,视频内容审核成为“委员会”的重点项目之一,针对于此,今日头条祭出了动态关键帧技术、图像建模识别技术和OCR识别技术三大杀手锏。

动态关键帧技术,利用视频场景变换关键帧检测视频运动变化情况,并抽取出发生场景变化的关键帧,提供给审核员进行审核。即便是潜伏在视频中的低俗内容、反动内容及广告,也能被甄别出来

图像建模识别,则在色情低俗图像识别上最好用。这种基于深度学习的图片识别技术,可以模仿人脑机制,让机器自动学习图片的特征。最终建立的图片模型,能对每张图片和视频动态帧截图进行低俗识别。

OCR识别技术,则能通过机器自动提取出附在图片上的文字,确保低俗有害文字不能通过图片变相传播。

在目前看来,这些技术的运营已经取得了一定的效果。数据显示,过去一年,平台上共标注图片样本110万,低俗视频样本1万,拦截率较之前人工拦截提升了73.71%。

网络安全法的出台,在中国互联网发展史上具有标志性意义。和今日头条一样,中国的互联网巨头们责任重大,不过,各家平台想要共同净化网络、维护安全生态的意愿,根本上还需要足够强大的技术能力来支撑。(本文首发钛媒体)

本文系作者 慢养有益 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 要说网络安全,我觉得就得给每个手机用户都装一个SIM卡识别,类似免密登录的那种。你可以识别SIM卡不需要密码登录,同时也因为它可以识别你的真实信息实名上网,另外除你以外的人登录不了你的账号,这个才叫真正的安全

    回复 2017.08.21 · via pc
  • 当人工智能的涉及领域越来越多,与生活息息相关的时候,自然而然的注重其安全与隐私,谁都不想一个只知道泄密的机器,愿每个人都有保密的贾维斯,快把灵犀语音助手,siri这些软件功能加强吧!

    回复 2017.06.02 · via pc

AWARDS-文章详情右上

2

扫描下载App