教培參考
教育培訓(xùn)行業(yè)知識型媒體
發(fā)布時間: 2025年01月10日 20:52
本文主要為華為HCIE-Big Data-Data Mining V2.0考試大綱,其它認(rèn)證項(xiàng)目的考試大綱可參考相應(yīng)的培訓(xùn)教材或通過華為公司網(wǎng)站獲取。華為企業(yè)大數(shù)據(jù)挖掘?qū)<艺J(rèn)證 HCIE-Big Data-Data Mining V2.0項(xiàng)目對應(yīng)的考試、考試代碼、考試名稱、考試時長信息如下表所示:
?
考試大綱
考試內(nèi)容
華為企業(yè)大數(shù)據(jù)挖掘?qū)<艺J(rèn)證HCIE-Big Data-Data Mining V2.0考試覆蓋:數(shù)據(jù)挖掘介紹、預(yù)備知識(數(shù)學(xué)基礎(chǔ)知識、Python基礎(chǔ)知識)、數(shù)據(jù)預(yù)處理、特征選擇與降維、有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、模型評估與優(yōu)化、數(shù)據(jù)挖掘綜合應(yīng)用、Spark MLlib數(shù)據(jù)挖掘、華為云機(jī)器學(xué)習(xí)服務(wù)MLS、FusionInsight Miner、大數(shù)據(jù)架構(gòu)和大數(shù)據(jù)治理、大數(shù)據(jù)挖掘。
知識點(diǎn)占比
?筆試 & 實(shí)驗(yàn) & 面試知識點(diǎn)
第一章 數(shù)據(jù)挖掘介紹
數(shù)據(jù)挖掘概述
數(shù)據(jù)挖掘流程
數(shù)據(jù)、屬性和度量
數(shù)據(jù)挖掘開發(fā)工具
數(shù)據(jù)挖掘?qū)W習(xí)路徑
第二章 預(yù)備知識
矩陣和線性代數(shù)
行列式
矩陣及其變換
矩陣分解
奇異值分解
特征值分解
線性變換
向量空間
概率論和數(shù)理統(tǒng)計(jì)
隨機(jī)事件及其概率
隨機(jī)變量及其分布
隨機(jī)向量及其分布
隨機(jī)變量的函數(shù)
隨機(jī)變量的數(shù)字特征
大數(shù)定律與中心極限定理
參數(shù)估計(jì)
假設(shè)檢驗(yàn)
方差分析和回歸分析
信息熵與基尼系數(shù)
最優(yōu)化
無約束最優(yōu)化問題
梯度下降法
約束最優(yōu)化問題
拉格朗日乘子法
Python語言基礎(chǔ)
什么是Python
Python基礎(chǔ)知識
Python中的數(shù)據(jù)類型
判斷與循環(huán)語句
函數(shù)和面向?qū)ο?br>常用標(biāo)準(zhǔn)庫
常用第三方庫
正則表達(dá)式
文件操作
數(shù)據(jù)采集與爬蟲
什么是爬蟲
爬蟲的作用及工作流程
爬蟲常用的工具
數(shù)據(jù)提取與存儲
常見的反爬機(jī)制和應(yīng)對措施
爬蟲程序的實(shí)現(xiàn)
數(shù)據(jù)可視化
什么是數(shù)據(jù)可視化
數(shù)據(jù)可視化的作用及使用場景
數(shù)據(jù)可視化的常用工具
數(shù)據(jù)可視化的實(shí)現(xiàn)流程
第三章 數(shù)據(jù)預(yù)處理
數(shù)據(jù)抽取、轉(zhuǎn)換和加載
數(shù)據(jù)抽取、轉(zhuǎn)換和加載概述
數(shù)據(jù)抽取
數(shù)據(jù)轉(zhuǎn)換
數(shù)據(jù)加載
ETL和ELT介紹
數(shù)據(jù)清洗
不均衡數(shù)據(jù)處理
缺失值處理
異常值處理
特征處理
特征縮放
數(shù)值離散化
特征編碼
時間數(shù)值轉(zhuǎn)換
第四章 特征選擇與降維
特征選擇
特征選擇概述
Filter
Wrapper
Embedded
其他方法和特征擴(kuò)增
降維
降維導(dǎo)入
SVD
PCA
LDA
LLE
第五章 有監(jiān)督學(xué)習(xí)
有監(jiān)督學(xué)習(xí)的預(yù)備知識
機(jī)器學(xué)習(xí)
機(jī)器學(xué)習(xí)分類
基本術(shù)語與概念
線性回歸
基本概念
誤差
正規(guī)方程
梯度下降
正則化
邏輯回歸
基本概念
目標(biāo)函數(shù)
損失函數(shù)
優(yōu)化方法
KNN
基本概念
KNN算法三要素
樸素貝葉斯
貝葉斯算法
樸素貝葉斯分類算法
樸素貝葉斯分類算法的優(yōu)缺點(diǎn)
SVM
基本概念
線性分類
線性SVM
非線性分類
非線性SVM
決策樹
基本概念
ID3
C4.5
CART
集成算法
基本概念
結(jié)合策略
Bagging
隨機(jī)森林
Boosting
Adaboost
GBDT
XGboost
第六章 無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)概念與導(dǎo)入
聚類算法
聚類分析概念
基于原型聚類
K-Means算法
K-Mediods算法
基于層次聚類
Hierarchical Clustering算法
BIRCH算法
基于密度聚類
DBSCAN算法
關(guān)聯(lián)算法
Apriori算法
FP-growth算法
第七章 模型評估與優(yōu)化
模型評估與優(yōu)化預(yù)備知識
基本術(shù)語及概念
最優(yōu)化模型
最優(yōu)化模型的概述
凸優(yōu)化
損失函數(shù)
最優(yōu)化模型的分類
模型評估與選擇
模型評估概述
數(shù)據(jù)集拆分
回歸模型評估
分類模型評估
聚類模型評估
正則化
第八章 數(shù)據(jù)挖掘綜合應(yīng)用
數(shù)據(jù)挖掘的流程
數(shù)據(jù)挖掘流程概述
分析需求
數(shù)據(jù)讀取
數(shù)據(jù)預(yù)處理
特征工程
特征選擇
模型選擇
模型評估
綜合應(yīng)用的案例分析
第九章 Spark MLlib數(shù)據(jù)挖掘
Spark MLlib基礎(chǔ)入門
Spark MLlib簡介
Spark MLlib矩陣向量
Spark MLlib基礎(chǔ)統(tǒng)計(jì)分析
Basic Statistics 簡介
Summery statistic (匯總統(tǒng)計(jì))
Correlations (相關(guān)系數(shù))
Stratified sampling (分層抽樣)
Hypothesis Testing (假設(shè)檢驗(yàn))
Random data generation (隨機(jī)數(shù)生成)
Kernel density estimation (核密度估計(jì))
Spark MLlib特征提取和轉(zhuǎn)換
TF-IDF
Word2Vec
StandardScaler,MinMaxScaler,MaxAbsScaler
Normalizer
ChiSqSelector
ElementwiseProduct
Spark MLlib分類與回歸
分類和回歸簡介
線性模型
決策樹模型
集成模型
樸素貝葉斯模型
Spark MLlib聚類與降維
聚類算法回顧
KMeans算法
Spark MLlib降維算法簡介
SVD算法
PCA算法
Spark MLlib關(guān)聯(lián)規(guī)則與推薦算法
關(guān)聯(lián)規(guī)則算法回顧
Spark MLlib中FP-Growth算法
Spark MLlib中PrefixSpan算法
協(xié)同過濾算法回顧
Spark MLlib中協(xié)同過濾算法
Spark MLlib評估矩陣
Spark MLlib模型評估
分類模型評估
回歸模型評估
第十章 華為云機(jī)器學(xué)習(xí)服務(wù)MLS
華為MLS服務(wù)介紹
申請華為MLS服務(wù)
創(chuàng)建華為MLS工作流
典型算法的應(yīng)用
機(jī)器學(xué)習(xí)平臺FusionInsight Miner
第十一章 大數(shù)據(jù)架構(gòu)和大數(shù)據(jù)治理
大數(shù)據(jù)架構(gòu)
大數(shù)據(jù)架構(gòu)概述
大數(shù)據(jù)架構(gòu)在大數(shù)據(jù)中的重要性
大數(shù)據(jù)架構(gòu)師所具備的能力
如何構(gòu)建大數(shù)據(jù)架構(gòu)平臺
大數(shù)據(jù)業(yè)務(wù)層通用架構(gòu)
大數(shù)據(jù)治理
大數(shù)據(jù)治理概述
大數(shù)據(jù)治理建設(shè)背景和目標(biāo)
企業(yè)數(shù)據(jù)規(guī)劃及治理模型
大數(shù)據(jù)治理案例
第十二章 大數(shù)據(jù)挖掘
數(shù)據(jù)挖掘背景
銀行客戶精準(zhǔn)畫像案例
提升信用卡安全案例
城市環(huán)境質(zhì)量分析挖掘案例
?
微信掃碼關(guān)注公眾號
獲取更多考試熱門資料