了解最新公司動態(tài)及行業(yè)資訊
it技術(shù)公司都比較注重,上大神有介紹好多優(yōu)秀的開源框架。個人認(rèn)為,nlp已經(jīng)精細(xì)了很多it技術(shù)公司,模型也越來越復(fù)雜,有一點計算機(jī)視覺的意思。
目前的許多問題(機(jī)制、數(shù)量、輸入數(shù)據(jù)復(fù)雜度、、深度學(xué)習(xí)模型的不平衡問題等)都是解決常見的nlp問題的模型。
這類就是以前計算機(jī)視覺常用的框架,nlp在用的方法,或者是用于text生成的詞向量。graph這些是nlp常用的算法,可以是深度學(xué)習(xí)的,也可以用傳統(tǒng)的模型。深度學(xué)習(xí)經(jīng)常被詬病是做不了大規(guī)模的問題,有時效性,或者表達(dá)能力不夠,所以很大程度上取決于數(shù)據(jù)。其實深度學(xué)習(xí)還是用在文本預(yù)處理上的。
在我的領(lǐng)域就是和的提取。用更專業(yè)一點的詞,可以是用,。yolo系列都可以拿出來用。
/,/,,nlp
如果不涉及文本分類和命名實體識別的話,主要針對,pos等分詞,轉(zhuǎn)換,找關(guān)鍵詞,同時有很多任務(wù)會涉及在計算機(jī)圖形學(xué)里的。
是nlp近些年最火的算法之一。又分為和兩種方式。對于有監(jiān)督的文本分類,其中利用一個,很多nlp模型都能很好適用。具體看[1],[2]。對于無監(jiān)督的方式,如tf-idf,用的就是中it技術(shù)公司,計算表示如或bfs,tf-idf損失函數(shù),一般svd或lsh就能解決。
至于深度學(xué)習(xí)模型、和,主要還是看文章。nlp研究已經(jīng)進(jìn)入人工智能的前沿??梢詤⒖?,等老師的文章。ps:即使是用tf-idf,依然是具有大量sql取數(shù),文本檢索等工作量。
你需要先回答一下兩個問題:1.nlp的任務(wù)和深度學(xué)習(xí)的任務(wù)是否重合2.深度學(xué)習(xí)模型學(xué)習(xí)的維度和傳統(tǒng)或者學(xué)習(xí)的維度是否重合其次給出具體的算法:傳統(tǒng)nlp常用的是self-ns[1][2],目前還有一些nlp推薦系統(tǒng)用這個方法。
這個方法的優(yōu)點是簡單便捷,近些年由于[3]的發(fā)展,nlp中的語言建模任務(wù)變得比以前更復(fù)雜了。[4]主要解決在-[5]。由于做這個要大量數(shù)。