|
-- 會員 / 註冊 --
|
|
|
|
自然語言處理與Java語言實現 ( 簡體 字) |
作者:羅剛 | 類別:1. -> 程式設計 -> 自然語言 |
譯者: |
出版社:人民郵電出版社 | 3dWoo書號: 53629 詢問書籍請說出此書號!【有庫存】 NT售價: 350 元 |
出版日:8/1/2020 |
頁數:352 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 簡體 版 ) |
|
加入購物車 │加到我的最愛 (請先登入會員) |
ISBN:9787115525079 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:本書詳細介紹以Java實現的自然語言處理常用的應用。從基本的文本挖掘技術到語音識別、問答系統和機器翻譯技術,包括中文分詞、詞性標注、依存句法分析等。其中詳細介紹了中文分詞和詞性標注的過程及相關算法,如隱馬爾可夫模型等。在自然語言處理的應用領域主要介紹了信息抽取、自動文摘、文本排重、文本分類、文本傾向性分析等領域的基本理論和實現過程,此外還有問答系統、機器翻譯等目前應用非常廣泛的領域。 |
目錄:第1章 自然語言處理實踐基礎 1.1 開發環境準備 1.1.1 Windows命令列cmd 1.1.2 在Windows下使用Java 1.1.3 Linux終端 1.1.4 在Linux下使用Java 1.1.5 Eclipse整合式開發環境 1.2 技術基礎 1.2.1 機器學習 1.2.2 Java基礎 1.2.3 資訊採集 1.2.4 文本挖掘 1.2.5 SWIG擴展Java性能 1.2.6 代碼移植 1.2.7 語義 1.2.8 Hadoop分散式運算框架 1.3 專業術語 開發篇 第2章 中文分詞原理與實現 2.1 介面 2.1.1 切分方案 2.1.2 詞典格式 2.2 散列表最長匹配中文分詞 2.2.1 演算法實現 2.2.2 使用Ant構建分詞jar包 2.2.3 使用Maven構建分詞jar包 2.2.4 使用Gradle構建分詞jar包 2.2.5 生成JavaDoc 2.3 查找詞典演算法 2.3.1 標準Trie樹 2.3.2 三叉Trie樹 2.4 Trie樹最大長度匹配法 2.4.1 正向最大長度匹配法 2.4.2 逆向最大長度匹配法 2.4.3 有限狀態機識別未登錄串 2.5 概率語言模型的分詞方法 2.5.1 一元模型 2.5.2 整合基於規則的方法 2.5.3 表示切分詞圖 2.5.4 形成切分詞圖 2.5.5 資料基礎 2.5.6 改進一元模型 2.5.7 二元詞典 2.5.8 完全二叉樹組 2.5.9 三元詞典 2.5.10 N元模型 2.5.11 N元分詞 2.5.12 生成語言模型 2.5.13 評估語言模型 2.5.14 概率分詞的流程與結構 2.5.15 可變長N元分詞 2.5.16 條件隨機場 2.6 新詞發現 2.7 Android系統中文輸入法 2.8 詞性標注 2.8.1 資料基礎 2.8.2 隱瑪律可夫模型 2.8.3 存儲資料 2.8.4 統計資料 2.8.5 整合切分與詞性標注 2.8.6 大詞表 2.8.7 詞性序列 2.8.8 基於轉換的學習方法 2.8.9 實現詞性標注 2.9 詞類模型 2.10 未登錄詞識別 2.10.1 未登錄人名 2.10.2 提取候選人名 2.10.3 最長人名切分 2.10.4 一元概率人名切分 2.10.5 二元概率人名切分 2.10.6 未登錄地名 2.10.7 未登錄企業名 2.11 中文分詞總體結構 2.12 平滑演算法 2.12.1 最大熵 2.12.2 實現中文分詞 2.13 地名切分 2.13.1 識別未登錄地名 2.13.2 整體流程 2.14 企業名切分 2.14.1 識別未登錄詞 2.14.2 整體流程 2.15 結果評測 2.16 專業術語 第3章 語義分析 3.1 句法分析樹 3.2 依存文法 3.2.1 中文依存文法 3.2.2 英文依存文法 3.2.3 生成依存文法樹 3.2.4 機器學習的方法 3.3 依存語言模型 3.4 使用Java電腦語言的語義分析 3.5 專業術語 第4章 文章分析 4.1 分詞 4.1.1 句子切分 4.1.2 識別未登錄串 4.1.3 切分邊界 4.2 詞性標注 4.3 重點詞彙提取 4.4 句子時態分析 4.5 專業術語 第5章 文檔語義 5.1 相似度計算 5.1.1 夾角余弦 5.1.2 最長公共子串 5.1.3 同義詞替換 5.1.4 地名相似度 5.1.5 企業名相似度 5.2 文檔排重 5.2.1 關鍵字排重 5.2.2 語義指紋排重 5.2.3 分散式文檔排重 5.2.4 使用文檔排重 5.3 在搜尋引擎中使用文檔排重 5.4 專業術語 第6章 資訊提取 6.1 指代消解 6.2 中文關鍵字提取 6.2.1 關鍵字提取的基本方法 6.2.2 HITS演算法應用於關鍵字提取 6.2.3 從網頁中提取關鍵字 6.3 資訊提取 6.3.1 提取聯繫方式 6.3.2 從互聯網提取資訊 6.3.3 提取地名 6.4 拼寫糾錯 6.4.1 模糊匹配問題 6.4.2 正確詞表 6.4.3 英文拼寫檢查 6.4.4 中文拼寫檢查 6.5 輸入提示 6.6 專業術語 第7章 自動摘要 7.1 自動摘要技術 7.1.1 英文文本摘要 7.1.2 中文文本摘要 7.1.3 基於篇章結構的自動摘要 7.1.4 句子壓縮 7.2 指代消解 7.3 多文檔摘要 7.4 分散式部署 7.5 專業術語 第8章 文本分類 8.1 地名分類 8.2 文本範本分類 8.3 特徵提取 8.4 線性分類器 8.4.1 關鍵字加權法 8.4.2 樸素貝葉斯 8.4.3 貝葉斯文本分類 8.4.4 支持向量機 8.4.5 多級分類 8.4.6 使用sklearn實現文本分類 8.4.7 規則方法 8.4.8 網頁分類 8.5 FastText文本分類 8.5.1 詞向量 8.5.2 JavaCPP包裝Java介面 8.5.3 使用JFastText 8.6 最大熵分類器 8.7 文本聚類 8.7.1 K均值聚類演算法 8.7.2 K均值聚類演算法的實現 8.7.3 深入理解DBScan演算法 8.7.4 使用DBScan演算法聚類實例 8.8 持續集成 8.9 專業術語 第9章 文本傾向性分析 9.1 確定詞語的褒貶傾向 9.2 實現情感識別 9.3 專業術語 系統篇 第10章 語音辨識 10.1 總體結構 10.1.1 識別中文 10.1.2 自動問答 10.2 語音庫 10.3 語音 10.3.1 標注語音 10.3.2 動態時間規整計算相似度 10.4 Sphinx語音辨識 10.4.1 中文訓練集 10.4.2 使用Sphinx4 10.4.3 ARPA檔案格式 10.4.4 PocketSphinx語音辨識引擎 10.5 說話人識別 10.6 專業術語 第11章 問答系統 11.1 問答系統的結構 11.1.1 提取問答對 11.1.2 等價問題 11.2 問句分析 11.2.1 問題類型 11.2.2 句型 11.2.3 業務類型 11.2.4 依存文法樹 11.2.5 指代消解 11.2.6 二元關係 11.2.7 問句範本 11.2.8 結構化問句範本 11.2.9 檢索方式 11.2.10 問題重寫 11.2.11 提取事實 11.2.12 驗證答案 11.3 知識庫 11.4 AIML聊天機器人 11.4.1 互動式問答 11.4.2 垂直領域問答系統 11.4.3 語料庫 11.4.4 用戶端 11.5 自然語言生成 11.6 JavaFX開發介面 11.7 專業術語 第12章 機器翻譯 12.1 使用機器翻譯API 12.2 翻譯日期 12.3 神經機器翻譯 12.4 輔助機器翻譯 12.5 機器翻譯的評價 12.6 專業術語 參考文獻 後記 |
序: |
|