场景描述
注重玩家体验,是《MLBB》的基本原则。例如在开拓东南亚业务的过程中,沐瞳发现由于东南亚国家数量众多,且各地的互联网基建水平参差不齐,本地化工作面临严峻的挑战。
为此,沐瞳没有选择使用统一的语言包,而是为包含众多小语种国家在内的每个国家,分别制作了各自的语言包。这一策略使得早期《MLBB》覆盖了 20 多种语言,包括高棉语、塔加洛语等小语种,有效提升了当地玩家的游戏体验。
此外,《MLBB》的游戏运营也体现了其因地制宜的特征,实现了诸多成功的本地化实践。例如,针对不同地区的文化特色与历史传统,沐瞳推出了包括印尼金刚神 Gatotkaca、 菲律宾对抗外敌的民族英雄拉普拉普、马来西亚传奇勇士巴当、缅甸的江喜陀、韩国武将李舜臣等在内的多款本地化英雄,让各国 MLBB 玩家获得了强烈的文化认同感
解决方案
基于 Amazon Bedrock 调用业界领先大语言模型实现辱骂识别和精准舆情分析
在辱骂识别方面,沐瞳最初尝试过传统翻译服务,但由于游戏玩家交谈内容以东南亚本地小语种为主,涉及十几种东南亚语言,如果分别进行大模型自研开发会导致成本高昂,而如果完全依赖人工介入,不仅对辱骂判罚的响应速度相对较慢,还需要大量人力投入。
沐瞳于 2023年 10 月成为了 Amazon Bedrock 的首批用户。基于海外业务需求,沐瞳通过亚马逊云科技 Amazon Bedrock 调用业界领先 LLM ,实现文本处理任务。Amazon Bedrock 是一项完全托管的生成式 AI 服务,用户可以使用单个 API 调用众多领先的高性能大模型。其中,某业界领先 LLM 因其1.3 秒到 1.5 秒的快速响应能力和能够支持约 200K Token 输入的数据处理能力,受到了沐瞳的青睐。通过调用该模型,《MLBB》中辱骂识别的效率和准确性显著提高,同时舆情分析效率也得到了大幅提升。此外,面向海外业务,沐瞳还利用了该 LLM 进行提示词工程优化,帮助用户更有效地编写和模型调优的提示词,从而实现更优异的模型性能和输出效果。
在舆情分析以及风险控制方面,Amazon Bedrock 与 Amazon OpenSearch Service 的集成使得数据的处理和分析收效甚佳。Amazon OpenSearch Service 作为 PB 级别的搜索引擎,能够极大提升数据的检索效率,帮助沐瞳针对其海外业务迅速定位关键数据并提取,从而能将数据应用于 Amazon Bedrock 上进行更深入的分析。相较于市面上的其他选择,Amazon OpenSearch Service 拥有对类文本和类日志数据的高效处理能力,同时兼具支持同义词和向量存储的特性,这一叠加优势能够进一步提高了数据搜索和分析的精确度。
成效
辱骂识别准确率达到 90% 以上:针对海外业务,沐瞳通过 Amazon Bedrock 调用该业界领先 LLM 进行辱骂识别分析后,其响应速度相较于之前的大模型得到了明显提升。同时,通过该LLM 的二次过滤功能,《MLBB》辱骂识别的准确率也得到了显著优化,达到了90%以上。
支持 200k Token 输入,输出更精准:在舆情分析方面,该业界领先 LLM实现了更为精准的结论输出。由于该LLM支持 200k 的输入,意味着相对于行业内主流大模型 100k 上下文的 Token 输入,该LLM支持的信息量增加一倍、扩展到 200k 个 Token,相当于大约 15 万个单词或超过 500 页的材料,对于用户每天评论 500-600k 的输入,能够输出较少的文本切片,让输出结果更精准。
灵活多样的模型选择,提升《MLBB》玩家体验:目前,《MLBB》中的辱骂识别场景由亚马逊云科技 Amazon Bedrock 中的某业界领先 LLM以及另一主流模型联合支持机器翻译,并将翻译后的结果进行精准识别。该 LLM 可以精准识别小语种,并运用系统调优解决翻译精度问题;而针对于舆情分析的应用,《MLBB》基于亚马逊云科技 Amazon Bedrock 调用该LLM 进行文本摘要,将每日 14000 余条评论作为 Token 输入,并对其进行深化分析,进一步夯实该游戏世界观、角色的论证基础,为未来新游戏角色的构建提供事实依据。
根据《网络安全法》实名制要求,请绑定手机号后发表评论
这是LLM应用的一个很好的场景,解决了跨语言监管的难题。