輿情數(shù)據(jù)通過底層的大數(shù)據(jù)采集系統(tǒng),流入中間層的 ETL 數(shù)據(jù)處理平臺(tái),經(jīng)過初級(jí)的數(shù)據(jù)處理轉(zhuǎn)化之后,向上進(jìn)入數(shù)據(jù)挖掘核心處理環(huán)節(jié);此階段進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化、文本深度分析,如地域識(shí)別、智能分詞、情感判定、垃圾過濾等,經(jīng)過文本處理的結(jié)果,即脫離了原始數(shù)據(jù)的狀態(tài),具備了客戶屬性,基于客戶定制的監(jiān)測(cè)和預(yù)警規(guī)則,信息將在下一階段實(shí)時(shí)的推送給終端客戶,負(fù)面判定的準(zhǔn)確度、召回率,直接影響客戶的服務(wù)體驗(yàn)和服務(wù)認(rèn)可度。

? 難點(diǎn)與挑戰(zhàn)

輿情業(yè)務(wù)中的情感分析難點(diǎn),主要體現(xiàn)在以下幾個(gè)方面:

1. 輿情的客戶群體是復(fù)雜多樣的,涉及行業(yè)多達(dá)24個(gè)(如下圖所示),不同行業(yè)數(shù)據(jù)特點(diǎn)或敏感判定方案不盡相同,靠一個(gè)模型難以解決所有問題;

2. 輿情監(jiān)測(cè)的數(shù)據(jù)類型繁多, 既有常規(guī)的新聞、微信公眾號(hào)等媒體文章數(shù)據(jù),又有偏口語(yǔ)化的微博、貼吧、問答數(shù)據(jù),情感模型往往需要針對(duì)不同渠道類型單獨(dú)訓(xùn)練優(yōu)化,而渠道粒度的模型在不同客戶上效果表現(xiàn)也差別巨大;

3. 客戶對(duì)情感的訴求是有差異的,有些客戶會(huì)有自己專屬的判定條件。通用的情感模型難以適應(yīng)所有客戶的情感需求。

4. 隨著時(shí)間推移,客戶積累和修正的情感數(shù)據(jù)難以發(fā)揮價(jià)值。無法實(shí)現(xiàn)模型增量訓(xùn)練和性能的迭代提高。

5. 對(duì)于關(guān)注品牌、主體監(jiān)測(cè)客戶,需要進(jìn)行特定目標(biāo)(實(shí)體)情感傾向性(ATSA)判定。那么信息抽取就是一個(gè)難題。

6. 對(duì)于新聞?lì)悢?shù)據(jù),通常存在標(biāo)題和正文兩個(gè)文本域。如何提取有價(jià)值的文本信息作為模型輸入也是面臨的困難。

二、情感分析在百分點(diǎn)輿情的發(fā)展歷程

從2015年開始,百分點(diǎn)輿情便開始將機(jī)器學(xué)習(xí)模型應(yīng)用在早期的負(fù)面判定中;到2020年,我們已經(jīng)將深度遷移學(xué)習(xí)場(chǎng)景化和規(guī)?;?,也取得了不錯(cuò)的成果;

2015年:抓取百萬級(jí)別的口碑電商評(píng)論數(shù)據(jù),使用邏輯回歸進(jìn)行建模,做為情感分析的BaseLine;

2016年:主要側(cè)重于技術(shù)上的遞進(jìn),進(jìn)入深度學(xué)習(xí)領(lǐng)域。引入word2vec在大規(guī)模語(yǔ)料集上進(jìn)行訓(xùn)練,獲得具有更好語(yǔ)義信息的詞向量表示,替代基于Tfidf等傳統(tǒng)的統(tǒng)計(jì)特征。隨后在TextCnn、TextRnn等深度學(xué)習(xí)算法進(jìn)行更新迭代,盡管得到數(shù)字指標(biāo)的提高,但是對(duì)于實(shí)際業(yè)務(wù)的幫助還是不足。

2017年:結(jié)合輿情全業(yè)務(wù)特點(diǎn),需要能做到針對(duì)品牌、主體的情感監(jiān)測(cè)。提出 Syntax and Ruler-based Doc sentiment analysis的方式,依據(jù)可擴(kuò)充的句法規(guī)則以及敏感詞庫(kù)進(jìn)行特定的分析。該方式在敏感精準(zhǔn)度指標(biāo)上是有提升的,但是卻有較低的召回。同時(shí)在進(jìn)行規(guī)則擴(kuò)充時(shí),也比較繁瑣。

2019年上半年:以Bert為代表的遷移學(xué)習(xí)誕生,并且可以在下游進(jìn)行fine-tune,使用較小的訓(xùn)練數(shù)據(jù)集,便能取得不錯(cuò)的成績(jī)。進(jìn)行以輿情業(yè)務(wù)數(shù)據(jù)為基礎(chǔ),構(gòu)建一個(gè)簡(jiǎn)易的文本平臺(tái)標(biāo)注平臺(tái),在其上進(jìn)行訓(xùn)練數(shù)據(jù)的標(biāo)注,構(gòu)建了一個(gè)通用的情感模型分類器。評(píng)測(cè)指標(biāo) F1值為 0.87,后續(xù)對(duì) ERNIE1.0 進(jìn)行嘗試,有兩個(gè)百分點(diǎn)的提升。

2019年下半年:主要從輿情的業(yè)務(wù)問題入手,通過優(yōu)化提取更加精準(zhǔn)、貼近業(yè)務(wù)的情感摘要作為模型輸入,使用定制化模型以及多模型融合方案,聯(lián)合對(duì)數(shù)據(jù)進(jìn)行情感打標(biāo)。并提出基于情感實(shí)體(主體)的負(fù)面信息監(jiān)測(cè),下述統(tǒng)稱ATSA(aspect-term sentiment analysis),使用 Bert-Sentence Pair 的訓(xùn)練方式, 將 摘要文本、實(shí)體聯(lián)合輸入,進(jìn)行實(shí)體的情感傾向性判定。在定點(diǎn)客戶上取得不錯(cuò)的成績(jī),最后的F1值能達(dá)到 0.95。

2020年:將細(xì)化領(lǐng)域做到客戶級(jí)別,定制私有化情感模型。同時(shí)將加大對(duì)特定實(shí)體的細(xì)粒度情感分析(ATSA)的優(yōu)化;同時(shí),通過內(nèi)部 AI訓(xùn)練平臺(tái)的規(guī)模化應(yīng)用,做到模型的全生命周期管理,簡(jiǎn)化操作流程,加強(qiáng)對(duì)底層算力平臺(tái)的資源管控。

三、預(yù)訓(xùn)練語(yǔ)言模型與技術(shù)解析

下圖大致概括了語(yǔ)言模型的發(fā)展?fàn)顩r(未完全統(tǒng)計(jì)):

在2019年度情感分析實(shí)踐中,率先使用預(yù)訓(xùn)練語(yǔ)言模型 Bert,提高了情感分析的準(zhǔn)確率。后來具有更小參數(shù)量的ALBERT的提出,使生產(chǎn)環(huán)境定制化情感模型成為可能。這里就主要介紹BERT以及ALBERT。

? BERT

BERT(Bidirectional Encoder Representations from Transformerss)的全稱是基于 Transformer 的雙向編碼器表征,其中「雙向」表示模型在處理某一個(gè)詞時(shí),它能同時(shí)利用前面的詞和后面的詞兩部分信息(如下圖所示)。

在BERT中, 主要是以兩種預(yù)訓(xùn)練的方式來建立語(yǔ)言模型。

1.MLM(Masked LM)

MLM可以理解為完形填空,作者會(huì)隨機(jī)mask每一個(gè)句子中15%的詞,用其上下文來做預(yù)測(cè),例如:my dog is hairy → my dog is [MASK]。此處將hairy進(jìn)行了mask處理,然后采用非監(jiān)督學(xué)習(xí)的方法預(yù)測(cè)mask位置的詞是什么,具體處理如下:

 之后讓模型預(yù)測(cè)和還原被遮蓋掉或替換掉的部分。

2.NSP(Next Sentence Prediction)

首先我們拿到屬于上下文的一對(duì)句子,也就是兩個(gè)句子,之后我們要在這兩段連續(xù)的句子里面加一些特殊 token:  [cls] 上一句話,[sep] 下一句話. [sep]

也就是在句子開頭加一個(gè) [cls],在兩句話之中和句末加 [sep],具體地就像下圖一樣:

BERT在文本摘要、信息檢索、數(shù)據(jù)增強(qiáng)、閱讀理解等任務(wù)中,也有實(shí)際的應(yīng)用和發(fā)展。更多關(guān)于Bert相關(guān)介紹,請(qǐng)參照百分點(diǎn)認(rèn)知智能實(shí)驗(yàn)室往期文章。

? ALBERT

ALBERT的全稱是A Lite BERT for Self-supervised Learning of Language Representations(用于語(yǔ)言表征自監(jiān)督學(xué)習(xí)的輕量級(jí)BERT),相對(duì)于Bert而言,在保證參數(shù)量小的情況下,也能保持較高的性能。當(dāng)然同樣的模型還有 DistilBERT、TinyBERT。

1.ALBERT 和BERT的比較

下圖是BERT和ALBERT在訓(xùn)練速度和性能上的整體比較:

2.ALBERT的目標(biāo)

在基于預(yù)訓(xùn)練語(yǔ)言模型表征時(shí),增加模型大小一般可以提升模型在下游任務(wù)中的性能。但是通過增加模型大小會(huì)帶來以下問題:

在將Bert-large的隱層單元數(shù)增加一倍, Bert-xlarge在基準(zhǔn)測(cè)試上準(zhǔn)確率顯著降低。

ALBERT核心目標(biāo)就是解決上述問題, 下面就來介紹ALBERT在精簡(jiǎn)參上的優(yōu)化。

3.ALBERT模型優(yōu)化

明確參數(shù)的分布,對(duì)于有效可靠的減少模型參數(shù)十分有幫助。ALBERT同樣也只使用到Transformer的Encoder階段,如下圖所示:

圖中標(biāo)明的藍(lán)色方框和紅色方框?yàn)橹饕膮?shù)分布區(qū)域:

具體參數(shù)優(yōu)化如下:

Factorized embedding parameterization(對(duì)Embedding因式分解)

ALBERT認(rèn)為,token embedding是沒有上下文依賴的表述,而隱藏層的輸出值不僅包括了詞本身的意思還包括一些上下文信息,因此應(yīng)該讓H>>E,所以ALBERT的詞向量的維度是小于encoder輸出值維度的。在NLP任務(wù)中,通常詞典都會(huì)很大,embedding matrix的大小是E×V。

ALBERT采用了一種因式分解(Factorized embedding parameterization)的方法來降低參數(shù)量。首先把one-hot向量映射到一個(gè)低維度的空間,大小為E,然后再映射到一個(gè)高維度的空間,當(dāng)E<<H時(shí)參數(shù)量減少的很明顯。如下圖所示:

可以看到,經(jīng)過因式分解。參數(shù)量從O(V * H) 變?yōu)镺(V*E + E*H),參數(shù)量將極大減小。如下圖所示:在H=768條件下,對(duì)比E=128和E=768,參數(shù)量減少17%,而整體性能下降0.6%。

在后續(xù)的實(shí)驗(yàn)環(huán)境(所有的優(yōu)化匯總后),對(duì) embedding size 的大小進(jìn)行評(píng)估,得出在  E=128時(shí),性能達(dá)到最佳。

Cross-layer parameter sharing(跨層參數(shù)共享)

下圖是對(duì)BERT-Base Attention分布的可視化。對(duì)于一個(gè)隨機(jī)選擇的句子,我們可視化來自不同Layer的Head的Attention分布。可以看到,底層的Attention分布類似于頂層的Attention分布。這一事實(shí)表明在某種程度上,它們的功能是相似的。

Transformer中共享參數(shù)有多種方案,只共享feed-forward層,只共享attention層,ALBERT結(jié)合了上述兩種方案,feed-forward層與attention層都實(shí)現(xiàn)參數(shù)共享,也就是說共享encoder內(nèi)的所有參數(shù)。但是需要主要的是,這只是減少了參數(shù)量,推理時(shí)間并沒有減少。如下圖所示:在采用 all-shared模式下,參數(shù)量減少70%,性能下降小于3%。

在經(jīng)過上述的參數(shù)優(yōu)化后,整體參數(shù)量有了極大的縮減,訓(xùn)練速度也極大加快。后續(xù)作者又在模型變寬和模型變深上做了幾組實(shí)驗(yàn)。如下:

模型變寬

當(dāng)我們?cè)黾?H 大小時(shí),性能會(huì)逐漸提高。在H=6144時(shí),性能明顯下降。如下圖所示:

模型變深

在以ALBERT-large為基礎(chǔ)參數(shù),設(shè)置不同的layer大小,發(fā)現(xiàn)layer=48的性能要差于layer=24的性能,如下圖所示: 

一些實(shí)驗(yàn)表示NSP(BERT-style)非但沒有作用,反而會(huì)對(duì)模型帶來一些損害。作者接著提出SOP(ALBERT-style)的優(yōu)化模式。具體如下:

Inter-sentence coherence loss(句子連貫性)

在ALBERT中,為了去除主題識(shí)別的影響,提出了一個(gè)新的任務(wù) sentence-order prediction(SOP),SOP的正樣本和NSP的獲取方式是一樣的,負(fù)樣本把正樣本的順序反轉(zhuǎn)即可。SOP因?yàn)槭窃谕粋€(gè)文檔中選的,只關(guān)注句子的順序并沒有主題方面的影響。并且SOP能解決NSP的任務(wù),但是NSP并不能解決SOP的任務(wù),該任務(wù)的添加給最終的結(jié)果提升了一個(gè)點(diǎn)。

在后續(xù)的實(shí)驗(yàn)中, ALBERT在訓(xùn)練了100w步之后,模型依舊沒有過擬合,于是乎作者果斷移除了dropout,沒想到對(duì)下游任務(wù)的效果竟然有一定的提升。

當(dāng)然作者對(duì)于增加訓(xùn)練數(shù)據(jù)和訓(xùn)練時(shí)長(zhǎng)也做了詳盡的對(duì)比和測(cè)試,這里不再進(jìn)行描述。

在最初的 ALBERT發(fā)布時(shí),是只有中文的。感謝數(shù)據(jù)工程師徐亮以及所在的團(tuán)隊(duì),于 2019 年 10 月,開源了首個(gè)中文預(yù)訓(xùn)練的中文版 ALBERT 模型。

? 項(xiàng)目地址: https://github.com/brightmart/albert_zh

四、情感分析在輿情的應(yīng)用實(shí)踐

? 業(yè)務(wù)調(diào)研

2019上半年,輿情服務(wù)的整體情感判定框架已經(jīng)遷移到以Bert訓(xùn)練為基礎(chǔ)的情感模型上,得出的測(cè)試指標(biāo) F1 值為 0.86,相較于舊版模型提升顯著; 但是雖然數(shù)據(jù)指標(biāo)提升明顯,業(yè)務(wù)端實(shí)際感受卻并不明顯。因此我們對(duì)代表性客戶進(jìn)行采樣調(diào)查,輔助我們找出生產(chǎn)指標(biāo)和實(shí)驗(yàn)室指標(biāo)差異所在。同時(shí)針對(duì)上文提到的關(guān)于輿情業(yè)務(wù)中情感分析的痛點(diǎn)和難點(diǎn),進(jìn)行一次深度業(yè)務(wù)調(diào)研: 

1.客戶情感滿意度調(diào)查

2.文本作用域(模型輸入文本選擇)調(diào)研

這里將文本作用域分為以下幾個(gè)層次,分布情況如下圖所示:

3.情感判定因素

這里對(duì)判定因素做以下介紹:

我們針對(duì)上述調(diào)研結(jié)果進(jìn)行詳盡分析,最終確定走情感細(xì)粒度模型的道路。

? 情感分析的落地實(shí)踐

精簡(jiǎn)版本的情感架構(gòu)概覽如下:

接下來會(huì)基于此進(jìn)行講述,大致分為如下幾個(gè)層次:

1.輸入層

這里主要是獲取相應(yīng)文本輸入,以及客戶的文本作用域規(guī)則和檢索詞、主體詞,供下游的文本作用域生成提供對(duì)應(yīng)的條件。

2.文本作用域

依據(jù)文本作用域規(guī)則,生成對(duì)應(yīng)的模型輸入,請(qǐng)參照上文對(duì)文本作用域的闡述。這里實(shí)驗(yàn)內(nèi)容針對(duì)的是情感摘要。首先將文本進(jìn)行分句,然后依據(jù)對(duì)每一個(gè)句子和檢索詞進(jìn)行匹配,通過BM25計(jì)算相關(guān)性。這里限制的文本長(zhǎng)度在256內(nèi)。在文本域優(yōu)化后, 對(duì)線上的10家客戶進(jìn)行對(duì)比分析,實(shí)驗(yàn)條件如下:

進(jìn)行對(duì)比分析(客戶名稱已脫敏),每個(gè)客戶的情感摘要和文本標(biāo)題效果依次展示。如下圖所示:

可以發(fā)現(xiàn)整體效果是有極大提升的。但是也可以看到部分客戶的敏感精準(zhǔn)率是偏低的,這個(gè)和客戶的敏感分布有關(guān),大部分的敏感占比只有總數(shù)據(jù)量的 10% ~20%,有些甚至更加低。所以面臨一個(gè)新的問題,如何提升非均勻分布的敏感精準(zhǔn)度。這個(gè)會(huì)在下文進(jìn)行陳述。 

3.情感判定因素

由上文的情感因素分布得知, 情感對(duì)象(實(shí)體)的因素占54%,基于實(shí)體的情感傾向性判定(ATSA)是一個(gè)普適需求。如果這里直接使用通用情感分析判定(SA),在輿情的使用場(chǎng)景中會(huì)存在高召回,低精準(zhǔn)的的情況。接下來會(huì)對(duì)此進(jìn)行相關(guān)解決方案的的論述。

4.模型層

在19年初, 使用Bert-Base(12L,768H)進(jìn)行fine-tune,得到如下指標(biāo):情感準(zhǔn)確性:0.866, 敏感精準(zhǔn)率: 0.88,敏感召回:0.84,F1: 0.867;后來在ERNIE1.0上進(jìn)行嘗試,情感準(zhǔn)確性能提升2個(gè)百分點(diǎn)。不過因?yàn)镻addlePaddle的生態(tài)問題,沒有選擇ERNIE。這是一個(gè)符合自然語(yǔ)義的情感模型, 但是對(duì)于輿情客戶來說,這還遠(yuǎn)遠(yuǎn)不夠。

 對(duì)生產(chǎn)環(huán)境的埋點(diǎn)日志分析,發(fā)現(xiàn)客戶存在大量的屏蔽操作。選取近一個(gè)月屏蔽最多的10個(gè)話題進(jìn)行分析,如下圖所示:

通過調(diào)研和分析發(fā)現(xiàn),這些數(shù)據(jù)雖然命中關(guān)鍵詞,但是數(shù)據(jù)相關(guān)度比較低。在情感判定之前引入相關(guān)度判定, 對(duì)于非相關(guān)的數(shù)據(jù),一律判定為非敏感。對(duì)于精準(zhǔn)數(shù)據(jù)再次進(jìn)行情感分析判定,大大提升敏感精準(zhǔn)率。在工程上選取ALBERT進(jìn)行模型訓(xùn)練可以達(dá)到部署多個(gè)模型的目的。觀測(cè)到,單個(gè)模型在推理階段,在Gpu(RTX 2080)上占用的顯存大約在600MiB,極大節(jié)省資源。

部分客戶相關(guān)度模型效果如下:

部分客戶實(shí)施相關(guān)度判定,由于數(shù)據(jù)特征比較明顯,可以很容易達(dá)到比較精準(zhǔn)的數(shù)據(jù)效果,但是并不適用于所有客戶。相關(guān)度模型的引入,即達(dá)到篩選相關(guān)數(shù)據(jù)的目的,也能減少情感判定噪音數(shù)據(jù)的干擾,提升敏感精準(zhǔn)度。

5.ATSA-面向情感實(shí)體的情感傾向性分析

ATSA(aspect-term sentiment analysis) 要解決就是在特定情感實(shí)體下的情感傾向性判定問題。這里主要借鑒《Utilizing BERT for Aspect-Based Sentiment Analysis via Constructing Auxiliary Sentence》文中的思想。這個(gè)工作做得非常聰明,它把本來情感計(jì)算的常規(guī)的單句分類問題,通過加入輔助句子,改造成了句子對(duì)匹配任務(wù)。很多實(shí)驗(yàn)證明了:BERT是特別適合做句子對(duì)匹配類的工作的,所以這種轉(zhuǎn)換無疑能更充分地發(fā)揮BERT的應(yīng)用優(yōu)勢(shì)。

輿情中要解決的問題如下:

A公司和B公司的情感傾向性是非敏感的, 而C公司卻是敏感的。要解決這個(gè)問題,要面臨兩個(gè)問題:

在輿情的業(yè)務(wù)場(chǎng)景中,可以簡(jiǎn)化問題,由于情感實(shí)體是提前給定的, 所以不需要做實(shí)體識(shí)別和信息抽取, 只需要對(duì)特定實(shí)體的情感傾向性進(jìn)行判定。整體流程如下:

主要是利用 Bert Sentence-Pair,文本與實(shí)體聯(lián)合訓(xùn)練,得到輸出標(biāo)簽。目前實(shí)驗(yàn)證明,經(jīng)過這種問題轉(zhuǎn)換,在保證召回率提升的情況下,準(zhǔn)確率和精準(zhǔn)率都得到了提高。選取一個(gè)客戶進(jìn)行對(duì)比測(cè)試,如下所示:

上述是一個(gè)正負(fù)樣本及其不均勻的情況,增加敏感精準(zhǔn)率將提高客戶的滿意度。目前的實(shí)現(xiàn)的機(jī)制還略顯簡(jiǎn)單,未來還將持續(xù)投入。

6.情感規(guī)則引擎

在部分客戶場(chǎng)景中, 他們的業(yè)務(wù)規(guī)則是明確的或者是可窮舉的。這里會(huì)做一些長(zhǎng)尾詞挖掘、情感新詞發(fā)現(xiàn)等工作來進(jìn)行輔助, 同時(shí)要支持實(shí)時(shí)的干預(yù)機(jī)制,快速響應(yīng)。比如某些客戶的官方微博經(jīng)常會(huì)發(fā)很多微博,他們會(huì)要求都判定成非敏感。這里不再做過多介紹。

五、長(zhǎng)期規(guī)劃

? AI 訓(xùn)練平臺(tái)的構(gòu)建

軟件開發(fā)領(lǐng)域和模型開發(fā)領(lǐng)域的流程是不同的,如下所示:

可以看到,構(gòu)建模型是困難的。在輿情架構(gòu)發(fā)展中,線上多模型是必然的趨勢(shì),也就意味著需要一個(gè)平臺(tái)能夠快速支持和構(gòu)建一個(gè)定制化模型,來滿足真實(shí)的應(yīng)用場(chǎng)景。這就需要從底層的算力資源進(jìn)行管控、輿情數(shù)據(jù)的標(biāo)準(zhǔn)化制定和積累、模型的生命周期管理等多方面進(jìn)行衡量。關(guān)于 AI 訓(xùn)練平臺(tái)的構(gòu)建以及在輿情領(lǐng)域的應(yīng)用實(shí)踐,我們將在后續(xù)文章做進(jìn)一步闡述。

? 持續(xù)學(xué)習(xí),增量迭代

隨著輿情客戶對(duì)系統(tǒng)的深度使用,一般會(huì)有情感標(biāo)簽的人工糾正。所以需要保證模型可以進(jìn)行增量迭代,減少客戶的負(fù)反饋。

? 多實(shí)體的情感傾向分析

對(duì)包含有多個(gè)實(shí)體信息的文本,針對(duì)每一個(gè)系統(tǒng)識(shí)別到的實(shí)體,做自動(dòng)情感傾向性判斷(敏感、非敏感),并給出相應(yīng)的置信度,包括實(shí)體庫(kù)的構(gòu)建。

? 提升垂直類情感情感分析效果

在垂類上(App、餐飲、酒店等)情感傾向性分析準(zhǔn)確率上加大優(yōu)化力度。

隨著輿情業(yè)務(wù)的發(fā)展,各領(lǐng)域客戶都沉淀了大量與業(yè)務(wù)貼近的優(yōu)質(zhì)數(shù)據(jù),如何有效使用這些數(shù)據(jù),形成情感效果聯(lián)動(dòng)反饋機(jī)制,為業(yè)務(wù)賦能,是情感分析領(lǐng)域面臨的新的挑戰(zhàn)。在2019年的實(shí)踐中,通過場(chǎng)景化的情感分析框架落地應(yīng)用,對(duì)情感效果做到了模型定制化干預(yù),真正提高了客戶滿意度。這種機(jī)制具有整體精度高、定制能力強(qiáng)、業(yè)務(wù)感知明顯的特點(diǎn)。在后續(xù)工作中,將以 模型訓(xùn)練自動(dòng)化與人工反饋相結(jié)合的方式,將模型定制能力規(guī)?;⑵脚_(tái)化,實(shí)現(xiàn)情感分析在輿情場(chǎng)景下千人千面的效果。

百分點(diǎn)輿情洞察系統(tǒng)

百分點(diǎn)輿情洞察系統(tǒng)(MediaForce)是一款沉淀多年的互聯(lián)網(wǎng)公開輿情 SAAS 分析系統(tǒng),覆蓋全網(wǎng)主流資訊站點(diǎn)及社交媒體的公開數(shù)據(jù),幫助企業(yè)迅速發(fā)現(xiàn)輿情熱點(diǎn),掌握負(fù)面和輿論動(dòng)向,為上萬客戶提供精準(zhǔn)的輿情分析服務(wù)。

參考資料:

來源:百分點(diǎn)

分享到

xiesc

相關(guān)推薦