AI内容审核的成本有多大?
比如像QQ这样的社交软件,暂且非论实际规模,假设是日活一千万,内容审核是怎么审的,如一对一聊天,群聊,策动态这些审核外包第三方审核公司概略需要多少预算 写在前面:传统人工审核面临很多问题,比如人员操作不当、工作量大、审核效率低等等,而通过大量数据喂养和训练的AI,已具备对不良内容的基础识别功能(不过某些抽象内容的识别还是需要人工),能极大程度帮助内容审核效率提升。
01 社会背景:LED显示屏内容安全事故频发
全国各地已经发生多起LED显示屏内容显示安全事故,造成恶劣的社会影响。内容安全事故根源大多是“操作不当、黑客攻击、蓄意恶搞”等原因播放色情、反动等不良视频。公共显示屏的内容安全管理还没有相关的行业标准,市面上的公共显示屏产品基本处于零防护状态,普遍缺乏有效的技术防护手段,存在安全隐患,系统安全性低。一旦受到黑客攻击、人为误操作或蓄意篡改播放内容,无法做到内容播放过程的即时审核及控制,可能造成极其不良的社会影响和后果。
涉黄、涉暴、涉政等不良内容
为保证公共显示屏内容及播控的安全和合规性,急需对公共显示屏播控系统进行统计、排查、整改。
02 市场面临的问题
(1)缺乏内容及播控安全的防护意识:不是播控系统未连入互联网就绝对安全,根据数据显示目前70%以上的内容安全事故是由于人为误操作或蓄意更换播放内容引起的。
(2)未形成统一管理规范:传统管理通常是采用显示屏配套的控制系统,虽可降低被外部不法分子入侵的风险,却无法有效防止内部误操作或蓄意篡改内容等不良行为。
(3)缺乏相应的技术手段:公共显示屏的单位缺乏相应技术手段来实现屏幕的集中监管,未应用新技术、新手段进行主动性防护和管控,一旦出现公共显示屏安全事故,无法查询到违规操作和被入侵的痕迹,导致安全事件无法溯源上报。
(4)人工监管难度大、成本高:面对海量的视频数据信息,采用人工进行内容审核的方式,人工审核速率低、人力成本高昂,无法满足现有视频审核需求
户外LED显示屏
03 解决方案
公共显示屏内容安全智能管控系统,利用人工智能技术、边缘智能计算、智能存储和多媒体信息处理技术,形成一套高效的内容审核方案体系,并在此基础上集成硬件资源的智盒检测服务,对输出的内容进行实时检测和控制,提供轻量级、智能化、可边缘部署的视频检测与识别智能终端,做到内容安全管理的最后一道防护墙,为显示终端提供的内容安全提供保障。
公共显示屏内容安全卫士
04 应用场景
学校、医院、商场、银行、企业等多场景显示屏内容安全
可以广泛应用于学校、商场、医院、公交车站、体育场馆等多场景的LED显示屏播放内容安全审核合防护,有效识别涉黄、涉爆、涉政画面,守护大屏播控安全。
希望我的回答能对你有所帮助~ 不可能纯交给ai,因为ai没办法识别一些特殊言论,诸如印度,南斯拉夫,越南这类的。如果全交给ai审核,那反而真言论自由了 面对海量内容,仅依靠人工审核是远远不够的,违规内容具有覆盖场景多、数据变种多、对抗性强等特点,人工审核本身有着天然缺陷,比如成本高、效率低、主观成分高、评判标准不统一等等。
近年来,AI审核已成趋势,面对内容安全挑战,最好是“AI+人工”双重审核方案,两者优势互补。
不管是图文审核还是音视频,内容审核工作都面临着难度高、数量多、时效紧、任务重的难题。事实上,很少有平台可以确保自身在内容审核方面的专业性,缺乏与服务规模相适应的审核团队和技术能力,是众多平台普遍存在的内容审核痛点。
相比自身投入大量的人力、物力和财力去开展核心技术攻关,直接引入外部技术、委托专业内容安全服务商进行“AI+人工”审核是更便捷、性价比更高的方式。如网晴专业人工内容审核团队协同“网晴内容安全大脑”创建的“AI+人工”的智能审核体系,正在为多家央媒、主流媒体及互联网用户提供高等级安全保障。
以“网晴内容安全智能审核平台”为例,其审核系统基础功能包含账号管理体系、权限系统、内容安全审核流程配置,可以对注册作者的头像、昵称、简介和实名认证三要素信息等内容进行综合审核,可以实现对文章、图片、音视频、评论和弹幕等各类型内容的全面审核,精准识别和过滤不良信息。
下图所示为“网晴内容安全智能审核平台”与用户现有业务系统对接流程图:
针对大规模内容安全审核场景,网晴科技为客户提供降本增效的多种解决方案。客户可根据自身的体量和需求,自由选择,让内容审核更具针对性和灵活性。
如果感兴趣,可以到官网了解详细信息。
网晴科技—内容安全服务商,守护清朗网络空间 国内的游戏行业在过去的数十年里飞速发展。渐渐地,关于游戏中传播的内容管控也逐渐严格,行业内的内容管控需求日益增长。
如果一款游戏社交平台想要呈现合格的内容,首先要规范平台,根据内容来源去区分和梳理平台内容;其次还需要制定平台内容获取标准,避免影响账号用户的体验感;最后,可以通过第三方服务商的帮助,进一步明确相关游戏舆论平台的内容获取范围和使用行为,熟悉快速的信息确认机制和平台内容验证机制,通过智能内容审计系统加强行业自律与处理能力。
1.区分不同来源的平台内容
游戏的玩家群体在使用平台内容进行传播时,审计者需要区分不同平台内容的来源。同时,也应该考虑到不同的传播模式,在每个平台上获取内容的行为也不同。
对于开放度较高的信息披露平台(如世界聊天频道和游戏论坛),玩家可以在平台上发布各种信息,其他玩家群体也可以在帖子下发表评论,并表达他们对相关问题的看法。这种沟通模式使平台有能力监察内容风向和游戏拉人行为。
因此,玩家发表信息时,游戏厂商可以根据平台现有的信息来判断和检查事件,让游戏整体环境得到进一步管控。而开放性较低的平台(如个人空间、私聊)传播范围较小,识别能力较低,容易滋生负面舆论和游戏防拉人现象。因此在规范这些平台的内容时,就更应该谨慎,提高识别能力。
2.制定平台内容获取标准
具体的规范标准是提高平台内容和质量的第一步。目前,许多游戏厂商对平台内容的规范仍处于表面阶段。如果要具体规范,首先要对内容进行分类,梳理内容,避免过度消极言论和灰产广告,淹没一些普通玩家的信号;其次,要引导用户在游戏论坛中上传标准内容,平台应发布相关内容规范,使用户能够按规范生产内容;最后,加强后台检查也是必要的,适度且合理的处罚规则也将有助于缩小媒体游戏聊天信息的失范成本。
3.建立人工智能审计,加强行业监察力
网络游戏聊天信息的传播范围越来越大,虚假游戏聊天信息也随之而来。在市场运作下,为了增加不正当收入,吸引用户的注意力,部分内容制作人不惜冒险发布劣质信息,增加盈利或是粉丝数量。由于社交媒体平台内容参差不齐,给读者选择内容带来了一些麻烦,也增加了游戏平台验证这些内容的难度。
我国游戏聊天信息业自律体系仍存在不完善、不完善等问题。游戏社交平台需要完善其内部审计体系,从源头上控制内容,从而降低漏洞造成风险的可能性。基于深度学习和神经网络自主开发的人工智能算法,谛听安全为游戏领域客户提供智能内容审计,可以通过成熟且完善的AI系统不断优化审计效果,从而为行业者降本增效,净化游戏环境。
页:
[1]