訂閱
糾錯
加入自媒體

技術(shù)解讀思必馳DUI標(biāo)注訓(xùn)練一體化平臺,語音識別全場景覆蓋

2021-05-19 18:17
來源: 粵訊

image.png

坊間總會流傳些他們的段子

格子衫、雙肩包、沉默且不茍言笑

當(dāng)然,還有岌岌可危的發(fā)量(沒有,不是我說的)

那只能說,這些都是表象

堪稱新時代的中流砥柱

每天家住回龍觀,征戰(zhàn)新中關(guān)

渾身散發(fā)出高級又內(nèi)斂的氣質(zhì)

究竟是什么塑造的?

(一切為了工作 掙錢)

小馳捕捉到一位思必馳程序員小哥哥

今天去看看

他日常的那些“封神級”操作!

image.png

Q:一句話形容你正在做的事情?

A:人類之光…在宇宙中心呼喚AI…反正很Cool就對了

Q:最近有什么新成果嗎?

A:你光顧著關(guān)注我們發(fā)際線,不關(guān)注我們的精神成果,扣雞腿…

最近發(fā)布了DUI標(biāo)注訓(xùn)練一體化平臺,具體干啥的,來補(bǔ)課!↓↓↓

DUI標(biāo)注訓(xùn)練一體化平臺全場景應(yīng)用,識別體驗(yàn)持續(xù)提升!

思必馳DUI標(biāo)注訓(xùn)練一體化平臺,讓服務(wù)賦能走向能力賦能:

Q:如果我中英文摻著說,語音識別TA能聽懂嗎?

A:不同場景、環(huán)境下的語音識別效果多少會受噪聲、專業(yè)術(shù)語、多語言混合影響。契合場景來提升語音識別率,自然就能準(zhǔn)確許多。

Q:讓場景識別率能持續(xù)提升,你們有什么“神技”傍身?

A:我們?nèi)谶M(jìn)了最新的「端到端識別技術(shù)」來提升識別準(zhǔn)確率,通過大規(guī)模預(yù)訓(xùn)練模型技術(shù)提升語音識別后處理效果。結(jié)合「增量學(xué)習(xí)」、「主動學(xué)習(xí)」、「聯(lián)邦學(xué)習(xí)」和「小樣本遷移」等技術(shù)手段,提升用戶體驗(yàn)。同時開放「端點(diǎn)檢測模型自訓(xùn)練」、「標(biāo)點(diǎn)斷句自訓(xùn)練」等功能,讓用戶自己擁有自主權(quán),來解決實(shí)際問題。

Q:呃…

A:好,說點(diǎn)你能聽懂的

高能,劃重點(diǎn)!

image.png

第一,關(guān)于端到端識別技術(shù)。

過往嚴(yán)格意義上的端到端識別技術(shù),如基于LAS的端到端系統(tǒng),雖然可以較明顯地提升通用語音識別的準(zhǔn)確率,但受限于計(jì)算復(fù)雜、自定制語言模型技術(shù)不成熟等原因,不能大規(guī)模的商用。思必馳去年推出新一代端到端語音識別建模技術(shù),在實(shí)現(xiàn)通用識別準(zhǔn)確率相對提升10%-15% 的同時,也提升了模型計(jì)算速度,更可以滿足快速有效的語言模型自定制。

image.png

第二,關(guān)于大規(guī)模預(yù)訓(xùn)練模型技術(shù)。

要知道,語音識別系統(tǒng)中除了核心的語音識別(ASR)模型部分,語音識別的后處理模型也是十分重要的,它直接影響到識別結(jié)果的可讀性。思必馳語音識別系統(tǒng)支持「智能糾錯」、「智能標(biāo)點(diǎn)斷句」、「智能口語順滑」、「智能語義分段」、「智能語義糾錯」等語音識別后處理技術(shù),能進(jìn)一步提升語音識別的效果與可懂度。模型采用大規(guī)模預(yù)訓(xùn)練模型,結(jié)合多任務(wù)學(xué)習(xí)(Multi-Task Learning)和知識蒸餾(Knowledge Distillation)方法。在降低70%以上模型規(guī)模的條件下,提升了模型效果,運(yùn)算效率大幅提升同時降低了內(nèi)存開銷。

例如在智能會議場景中,通常轉(zhuǎn)寫結(jié)果是篇章段落,且多含有口語化的表達(dá),通過我們的識別后處理功能,可以將會議轉(zhuǎn)寫結(jié)果整理成格式化,易讀易懂的會議記錄。

第三,增量學(xué)習(xí)。

受限于深度神經(jīng)網(wǎng)絡(luò)技術(shù)中的災(zāi)難性遺忘問題,采用深度學(xué)習(xí)方法的ASR建模在權(quán)衡“既要保障模型原有識別效果,又要提升新的目標(biāo)場景識別效果”時,通常采用基于新舊數(shù)據(jù)混合訓(xùn)練的方法。弊端是,該方法增長了模型優(yōu)化的周期,又會帶來數(shù)據(jù)安全隱患。基于思必馳自研的KDF-IL增量學(xué)習(xí)方法,在語音識別優(yōu)化時,可以僅用新增數(shù)據(jù)進(jìn)行模型訓(xùn)練,縮短開發(fā)周期同時,也有效保障數(shù)據(jù)安全。 第四,小樣本學(xué)習(xí)。

自研的小樣本遷移學(xué)習(xí)技術(shù),使用少量數(shù)據(jù)就可快速實(shí)現(xiàn)場景體驗(yàn)優(yōu)化。例如使用少量帶標(biāo)注的文本數(shù)據(jù),即可對標(biāo)點(diǎn)斷句模型進(jìn)行優(yōu)化,相對傳統(tǒng)模式調(diào)優(yōu),節(jié)省了83%的數(shù)據(jù)量。例如,在真實(shí)的航空質(zhì)檢場景中,通用的標(biāo)點(diǎn)斷句模型面對特殊的專業(yè)術(shù)語和斷句方式,一定會水土不服。得益于小樣本遷移學(xué)習(xí)技術(shù),在使用少量的標(biāo)注文本情況下,即可實(shí)現(xiàn)F值40%左右的絕對值提升,完成體驗(yàn)效果從不可用到可用的轉(zhuǎn)變。 最后,咳咳….(這個氛圍是不是該升華了)在功能層面,我們深知不同用戶的使用場景復(fù)雜多樣,單靠賦能用戶自主訓(xùn)練ASR模型不能滿足需求。

我們。ㄉA來了)秉承以解決用戶實(shí)際問題為核心的產(chǎn)品理念,開放端點(diǎn)檢測模型自訓(xùn)練、標(biāo)點(diǎn)斷句自訓(xùn)練等功能,使得用戶可以通過我們的產(chǎn)品,完成識別系統(tǒng)中幾乎所有模塊功能的自訓(xùn)練,最大程度優(yōu)化用戶體驗(yàn)。

Q:啊,真不愧是“人類之光”。求問,沒經(jīng)驗(yàn)可以用嗎?

A:平臺建立的出發(fā)點(diǎn)就是降低 AI 使用門檻,只要企業(yè)有數(shù)智化轉(zhuǎn)型的需求,我們就能匹配提供高可用定制的模型。平臺的私有化部署能力,也能將自主權(quán)交給企業(yè)自己,非AI專家都能使用,”零“學(xué)習(xí)成本。

Q:怎么合作呢?

A:平臺同時滿足「模塊化輸出」+「支持 UI可視化界面 /API輸出」這兩點(diǎn),可以根據(jù)業(yè)務(wù)需求靈活配置,選擇使用一體化平臺的全部功能,或者只使用其中幾個模塊的功能。

Q:可以拓展使用嗎?

A:當(dāng)然可以,「全場景覆蓋」是平臺的一大優(yōu)點(diǎn)。適用于各類行業(yè)場景,如會議辦公、航空通訊、智慧醫(yī)療、城市交通、數(shù)字化門店、智慧園區(qū)、線下質(zhì)檢、政務(wù)、庭審等等,可以快速從當(dāng)前項(xiàng)目復(fù)用到新項(xiàng)目中,形成規(guī);a(chǎn)定制,滿足多樣化的業(yè)務(wù)需求。

Q:怎么聯(lián)系你們呢?

如有合作意向,請發(fā)郵件

Q: 好,不愧是氣質(zhì)不凡的你們!今天收獲頗豐!

A:總結(jié)下,就是我們在一個科技開放和包容的時代,和一群特別Cool的人,做了些特別Cool的產(chǎn)品和事情。如果你想更了解我們,歡迎隨時交流。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號