一、算法概念

  因子分解机(Factorization Machines, FM)是一种基于矩阵分解的机器学习算法,主要解决高维稀疏数据下的特征交互和参数估计问题。FM 通过引入特征组合和隐向量的矩阵分解来提升模型表现,特别适合处理推荐系统等场景中的数据稀疏性和特征交互复杂性。

  FM 可以用于分类和回归任务,是线性模型的扩展,能够高效地捕捉特征之间的交互作用。FM 的核心是通过低维向量的内积表示特征交互,使得其参数数量随维度线性增长,从而降低计算复杂度。
在这里插入图片描述
  FM 的主要特点:
   ∙ \bullet 有监督学习模型,适用于回归和分类任务。
   ∙ \bullet 通过低维向量的内积表示特征交互,模型结构保持线性。
   ∙ \bullet 常用训练方法:随机梯度下降(SGD)、交替最小二乘法(ALS)和马尔可夫链蒙特卡洛(MCMC)。
  FM 模型通过矩阵分解对特征交互建模,并且在处理稀疏数据时有显著优势,常用于推荐系统。

二、算法原理

(一) FM表达式

  为了使系统能够进行预测,它依赖于由用户事件记录生成的可用数据。这些数据是表示兴趣和意图的交易记录,例如:下载、购买、评分。
  对于一个电影评论系统来说,交易数据记录了用户 u ∈ U u \in U uU 在某一时间 t ∈ R t \in R tR 对电影(物品) i ∈ I i \in I iI 给出的评分 r ∈ { 1 , 2 , 3 , 4 , 5 } r \in\{1, 2, 3, 4, 5 \} r{1,2,3,4,5} ,由此产生的数据集可以表示如下:
在这里插入图片描述
  用于预测的数据表示为一个矩阵 X ∈ R m × n X \in\mathbb{R}^{m \times n} XRm×n ,其中包含总共 m m m 个观测值,每个观测值由一个实值特征向量 x ∈ R n x \in\mathbb{R}^{n} xRn 组成。来自上述数据集的特征向量可以表示为:
在这里插入图片描述
  其中, n = ∣ U ∣ + ∣ I ∣ + ∣ T ∣ n=| U |+| I |+| T | n=U+I+T ,即 x ∈ R n x \in\mathbb{R}^{n} xRn 也可以表示为 x ∈ R ∣ U ∣ + ∣ I ∣ + ∣ T ∣ x \in\mathbb{R}^{| U |+| I |+| T |} xRU+I+T ,其中训练数据集的表达式为 D = { ( x ( 1 ) , y ( 1 ) ) , ( x ( 2 ) , y ( 2 ) ) , … , ( x ( m ) , y ( m ) ) } D=\{( x^{( 1 )}, y^{( 1 )} ), ( x^{( 2 )}, y^{( 2 )} ), \ldots, ( x^{( m )}, y^{( m )} ) \} D={(x(1),y(1)),(x(2),y(2)),,(x(m),y(m))} 。训练目标是估计一个函数 y ^ ( x ) : R n → R \hat{y} ( x ) : \mathbb{R}^{n} \to\mathbb{R} y^(x):RnR ,当提供第 i i i x i ∈ R n x_{i} \in\mathbb{R}^{n} xiRn 作为输入时,能够正确预测对应的目标值 y i ∈ R y_{i} \in\mathbb{R} yiR
  FM模型的计算表达式如下所示:
在这里插入图片描述
   < v i , v j > < {\mathbf{v}}_{i}, {\mathbf{v}}_{j} > <vi,vj> 是交叉特征的参数,可以由一组参数定义:
< v i , v j > = w ^ i , j = ∑ f = 1 k v i , f × v j , f < {\mathbf{v}}_{i}, {\mathbf{v}}_{j} >=\hat{w}_{i, j}=\sum_{f=1}^{k} v_{i, f} \times v_{j, f} <vi,vj>=w^i,j=f=1kvi,f×vj,f
  当 k k k 足够大时,对于任意对称正定的实矩阵 W ^ ∈ R n × n \widehat{W} \in\mathbb{R}^{n \times n} W Rn×n ,均存在实矩阵 V   ∈   R n × k V \, \in\, \mathbb{R}^{n \times k} VRn×k ,使得 W ^ = V V ⊤ \widehat{W}=V V^{\top} W =VV成立:
W ^ = [ w ^ 1 , 1 w ^ 1 , 2 ⋯ w ^ 1 , n w ^ 2 , 1 w ^ 2 , 2 ⋯ w ^ 2 , n ⋮ ⋮ ⋱ ⋮ w ^ n , 1 w ^ n , 2 ⋯ w ^ n , n ] = V T V = [ v 1 T v 2 T ⋮ v n T ] [ v 1 v 2 ⋯ v n ] \hat{\mathbf{W}} = \begin{bmatrix} \hat{w}_{1,1} & \hat{w}_{1,2} & \cdots & \hat{w}_{1,n} \\ \hat{w}_{2,1} & \hat{w}_{2,2} & \cdots & \hat{w}_{2,n} \\ \vdots & \vdots & \ddots & \vdots \\ \hat{w}_{n,1} & \hat{w}_{n,2} & \cdots & \hat{w}_{n,n} \end{bmatrix} = \mathbf{V}^{T} \mathbf{V} = \begin{bmatrix} {\mathbf{v}}_1^{T} \\ {\mathbf{v}}_2^{T} \\ \vdots \\ {\mathbf{v}}_n^{T} \end{bmatrix} \begin{bmatrix} {\mathbf{v}}_1 &{\mathbf{v}}_2 & \cdots & {\mathbf{v}}_n \end{bmatrix} W^= w^1,1w^2,1w^n,1w^1,2w^2,2w^n,2w^1,nw^2,nw^n,n =VTV= v1Tv2TvnT [v1v2vn]
  其中,模型待求解的参数为:
w 0 ∈ R , w ∈ R n , V ∈ R n × k w_{0} \in\mathbb{R}, \quad\mathbf{w} \in\mathbb{R}^{n}, \quad\mathbf{V} \in\mathbb{R}^{n \times k} w0R,wRn,VRn×k
  其中:
   ∙ \bullet w 0 w_{0} w0 表示全局偏差。
   ∙ \bullet w i w_{i} wi 用于捕捉第 i i i 个特征和目标之间的关系。
   ∙ \bullet w ^ i , j \hat{w}_{i, j} w^i,j 用于捕捉 ( i , j ) ( i, j ) (i,j) 二路交叉特征和目标之间的关系。
   ∙ \bullet v i {\mathbf{v}}_{i} vi 代表特征 i i i 的表示向量,它是 V \mathbf{V} V 的第 i i i 列。

(二)时间复杂度

  根据FM模型计算表达式,可以得到模型的计算复杂度如下:
{ n + ( n − 1 ) } + { n ( n − 1 ) 2 [ k + ( k − 1 ) + 2 ] + n ( n − 1 ) 2 − 1 } + 2 = O ( k n 2 ) , \{n+( n-1 ) \}+\left\{\frac{n ( n-1 )} {2} [ k+( k-1 )+2 ]+\frac{n ( n-1 )} {2}-1 \right\}+2={ O} ( k n^{2} ), {n+(n1)}+{2n(n1)[k+(k1)+2]+2n(n1)1}+2=O(kn2),
  通过对交叉项的分解和计算,可以降低时间复杂度为 O ( k n ) { O} ( k n ) O(kn),计算过程如下所示:
在这里插入图片描述
  对于交叉特征,它们的交叉矩阵是一个对称矩阵,这里通过对一个 3x3 对称矩阵的详细分析,展示如何通过减少自交互项和利用对称性来优化计算。最终的结果是简化方程,并且将计算复杂度从二次方降低为线性级别,使模型能够更加高效地处理稀疏数据场景。
  首先,使用一个 3x3 的对称矩阵,图中表达式为计算目标:在这里插入图片描述
  对目标表达式进行展开,展开后对内积进行计算,左式表示 3x3 对称矩阵的一半(对称矩阵的上三角部分)
在这里插入图片描述
  右式表示需要从左式中减去的部分,右式为对称矩阵中自交互的部分,即对角线部分的计算。
在这里插入图片描述
  最终推导,得到:
y ^ ( x ) = w 0 + ∑ i = 1 n w i × x i + 1 2 ∑ f = 1 k ( ( ∑ i = 1 n v i , f × x i ) 2 − ∑ i = 1 n v i , f 2 × x i 2 ) \hat{y} ( {\bf x} )=w_{0}+\sum_{i=1}^{n} w_{i} \times x_{i}+\frac{1} {2} \sum_{f=1}^{k} \left( \left( \sum_{i=1}^{n} v_{i, f} \times x_{i} \right)^{2}-\sum_{i=1}^{n} v_{i, f}^{2} \times x_{i}^{2} \right) y^(x)=w0+i=1nwi×xi+21f=1k (i=1nvi,f×xi)2i=1nvi,f2×xi2
  其计算复杂度为 O ( k n ) { O} ( k n ) O(kn) k { [ n + ( n − 1 ) + 1 ] + [ 3 n + ( n − 1 ) ] + 1 } + ( k − 1 ) + 1 = O ( k n ) k \{[ n+( n-1 )+1 ]+[ 3 n+( n-1 ) ]+1 \}+( k-1 )+1={\cal O} ( k n ) k{[n+(n1)+1]+[3n+(n1)]+1}+(k1)+1=O(kn)

(三)回归和分类

  FM 模型可以用于求解分类问题,也可以用于求解回归问题。在回归任务中,FM 的输出 y ^ ( x ) \hat{y} ( {\bf x} ) y^(x)可以直接作为连续型预测变量。目标是优化回归损失函数,
  最小二乘误差(MSE):最小化预测值与实际值之间的均方误差。损失函数表达式如下所示:
l ( y ^ ( x ) , y ) = ( y ^ ( x ) − y ) 2 l(\hat{y}(x), y) = (\hat{y}(x) - y)^2 l(y^(x),y)=(y^(x)y)2
  对于二分类问题,使用的是Logit或Hinge损失函数:
l ( y ^ ( x ) , y ) = − ln ⁡ σ ( y ^ ( x ) y ) l(\hat{y}(x), y) = -\ln \sigma(\hat{y}(x) y) l(y^(x),y)=lnσ(y^(x)y)
  其中,σ 是Sigmoid(逻辑函数),𝑦∈{−1,1}。在二分类任务中,模型输出的是类别的概率,Sigmoid函数将其转换为0到1之间的概率值,而损失函数则度量预测值与真实分类之间的偏差。FMs 容易出现过拟合问题,因此应用 L2 正则化来防止过拟合。正则化有助于减少模型的复杂性,防止模型在训练数据上过度拟合,从而提升模型在新数据上的泛化能力。
  模型训练好后,就可以利用 y ^ ( x ) \widehat{y} ( \mathbf{x} ) y (x) 的正负符号来预测 x \mathbf{x} x 的分类了。

  最后,FM 模型方程的梯度可以表示如下:
∂ ∂ θ y ^ ( x ) = { 1 , 如果   θ   是   w 0 x i , 如果   θ   是   w i x i ∑ j = 1 n v j f x j − v i f x i 2 , 如果   θ   是   v i , f \frac{\partial}{\partial \theta} \hat{y}(x) = \begin{cases} 1, & \text{如果} \, \theta \, \text{是} \, w_0 \\ x_i, & \text{如果} \, \theta \, \text{是} \, w_i \\ x_i \sum_{j=1}^{n} v_j^f x_j - v_i^f x_i^2, & \text{如果} \, \theta \, \text{是} \, v_{i,f} \end{cases} θy^(x)= 1,xi,xij=1nvjfxjvifxi2,如果θw0如果θwi如果θvi,f
  其中,
   ∙ \bullet 当参数是 w 0 w_{0} w0 时,梯度为常数1。
   ∙ \bullet 当参数是 w i w_{i} wi 时,梯度为 x i x_{i} xi ,即特征 i i i 的值。
   ∙ \bullet 当参数是 v i , f v_{i, f} vi,f 时,梯度更复杂,包含一个交互项 x i ∑ j = 1 n v j f x j x_{i} \sum_{j=1}^{n} v_{j}^{f} x_{j} xij=1nvjfxj 减去一个二次项 v i f x i 2 v_{i}^{f} x_{i}^{2} vifxi2 。这里
v j f v_{j}^{f} vjf 是对应特征 j j j 的因子向量的第 f f f 个元素。
  求和项 ∑ j = 1 n v j f x j \sum_{j=1}^{n} v_{j}^{f} x_{j} j=1nvjfxj i i i 无关,因此可以提前计算。这样,每个梯度都可以在常数时间 O ( 1 ) O ( 1 ) O(1) 内计算出来,而所有参数的更新可以在 O ( k n ) O(kn) O(kn) 或稀疏条件下的 O ( k N z ( x ) ) O(kN_z(x)) O(kNz(x))内完成,其中 k k k是因子维度, n n n是特征数量, N z ( x ) N_z(x) Nz(x)是非零特征的数量。

三、算法优缺点

(一)优点

  1、解决了特征稀疏的问题,能够在非常系数数据的情况下进行预估
  2、解决了特征组合的问题
  3、FM是一个通用模型,适用于大部分场景
  4、线性复杂度,训练速度快

(二)缺点

  虽然考虑了特征的交互,但是表达能力仍然有限,不及深度模型;通过矩阵结构来建模特征之间的二阶交互交互作用,假设所有特征的权重都可以通过隐式支持来串联,但实际上某些特征交互可能比其他特征交互更重要,这种统一的串联有时无法捕捉复杂的交互关系。

四、FM分类任务实现对比

  使用 PySpark 的 FMClassifier 进行分类任务

(一)数据加载和样本分区

1、Python代码

# 创建 Spark 会话
spark = SparkSession.builder \
    .appName("FMClassifierExample") \
    .getOrCreate()

# 加载 Iris 数据集
from sklearn.datasets import load_iris
iris = load_iris()
X = iris.data
y = iris.target

# 将数据转换为 DataFrame
df = pd.DataFrame(X, columns=iris.feature_names)
df['label'] = y

# 将 pandas DataFrame 转换为 Spark DataFrame
spark_df = spark.createDataFrame(df)

# 将特征列组合成一个单独的特征列
assembler = VectorAssembler(inputCols=iris.feature_names, outputCol="features")
spark_df = assembler.transform(spark_df).select(col("label"), col("features"))

# 划分训练集和测试集
train_df, test_df = spark_df.randomSplit([0.8, 0.2], seed=42)

2、Sentosa_DSML社区版

  首先通过数据读入算子读取数据,中间可以接任意个数据处理算子(例,行处理,列处理等),
在这里插入图片描述
  然后,连接行处理中的样本分区算子对数据进行训练集和测试集的划分,比例为8:2,
在这里插入图片描述
  再接类型算子,设置Feature列和Label列。
在这里插入图片描述

(二)模型训练

1、Python代码

from pyspark.sql import SparkSession
from pyspark.ml.classification import FMClassifier

# 创建 FMClassifier 模型
fm = FMClassifier(
    featuresCol="features",
    labelCol="label",
    predictionCol="prediction",
    probabilityCol="probability",
    rawPredictionCol="rawPrediction",
    factorSize=8,
    fitIntercept=True,
    fitLinear=True,
    regParam=0.01,
    miniBatchFraction=1.0,
    initStd=0.01,
    maxIter=100,
    stepSize=0.01,
    tol=1e-06,
    solver="adamW",
    thresholds=[0.5],  # 设置分类阈值
    seed=42
)

# 训练模型
fm_model = fm.fit(train_df)

# 进行预测
predictions = fm_model.transform(test_df)

# 显示预测结果
predictions.select("features", "label", "prediction", "probability").show()

2、Sentosa_DSML社区版

  连接因子分解机分类算子,右侧设置模型参数等信息,点击应用后,右击算子并执行,得到因子分解机分类模型。如下图所示,
在这里插入图片描述
在这里插入图片描述

(三)模型评估和模型可视化

1、Python代码

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, confusion_matrix
import matplotlib.pyplot as plt
import seaborn as sns

# 从 PySpark DataFrame 提取预测结果
predictions_df = predictions.select("label", "prediction").toPandas()
y_test_sklearn = predictions_df['label'].values
y_pred_sklearn = predictions_df['prediction'].values

# 评估模型
accuracy = accuracy_score(y_test_sklearn, y_pred_sklearn)
precision = precision_score(y_test_sklearn, y_pred_sklearn, average='weighted')
recall = recall_score(y_test_sklearn, y_pred_sklearn, average='weighted')
f1 = f1_score(y_test_sklearn, y_pred_sklearn, average='weighted')

# 打印评估结果
print(f"FM 模型的准确率: {accuracy:.2f}")
print(f"加权精度 (Weighted Precision): {precision:.2f}")
print(f"加权召回率 (Weighted Recall): {recall:.2f}")
print(f"F1 值 (Weighted F1 Score): {f1:.2f}")

# 计算混淆矩阵
cm = confusion_matrix(y_test_sklearn, y_pred_sklearn)

2、Sentosa_DSML社区版

  模型后可接任意个数据处理算子,比如图表分析算子或数据写出算子,形成算子流执行,也可接评估算子,对模型的分类结果进行评估。如下图所示:在这里插入图片描述
  得到训练集和测试集的评估结果如下:
在这里插入图片描述
在这里插入图片描述
  右击模型,可以查看模型的模型信息,模型信息如下图所示:
在这里插入图片描述在这里插入图片描述

在这里插入图片描述

五、FM回归任务实现对比

  利用python代码,结合 PySpark 和 pandas 处理数据,主要应用了 Spark 的 FMRegressor 进行回归分析。

(一)数据加载和样本分区

1、Python代码

# 读取 winequality 数据集
df = pd.read_csv("D:/sentosa_ML/Sentosa_DSML/mlServer/TestData/winequality.csv")
df = df.dropna()  # 处理缺失值

# 将 pandas DataFrame 转换为 Spark DataFrame
spark_df = spark.createDataFrame(df)

# 将特征列组合成一个单独的特征列
feature_columns = df.columns.tolist()
feature_columns.remove('quality')
assembler = VectorAssembler(inputCols=feature_columns, outputCol="features")
spark_df = assembler.transform(spark_df).select("features", "quality")

# 划分训练集和测试集
train_df, test_df = spark_df.randomSplit([0.8, 0.2], seed=42)

2、Sentosa_DSML社区版

  先读取需要数据集,
在这里插入图片描述
  然后连接样本分区算子对数据集进行训练集和测试集的划分,划分比例为8:2,
在这里插入图片描述
  再接类型算子设置Feature列和Label列(Label列需满足:能转换为Double类型或者就是Double类型)
在这里插入图片描述

(二)模型训练

1、Python代码

# 创建 FMRegressor 模型
fm_regressor = FMRegressor(
    featuresCol="features",
    labelCol="quality",
    predictionCol="prediction",
    factorSize=8,
    fitIntercept=True,
    fitLinear=True,
    regParam=0.01,
    miniBatchFraction=1.0,
    initStd=0.01,
    maxIter=100,
    stepSize=0.01,
    tol=1e-06,
    solver="adamW",
    seed=42
)

# 训练模型
fm_model = fm_regressor.fit(train_df)

# 对测试集进行预测
predictions = fm_model.transform(test_df)

2、Sentosa_DSML社区版

  连接因子分解机回归算子,
在这里插入图片描述
  右击算子,点击运行,得到因子分解机回归模型。如下图所示:
在这里插入图片描述

(三)模型评估和模型可视化

1、Python代码

# 评估模型
evaluator = RegressionEvaluator(
    predictionCol="prediction",
    labelCol="quality",
    metricName="r2"
)
r2 = evaluator.evaluate(predictions)
evaluator_mae = RegressionEvaluator(predictionCol="prediction", labelCol="quality", metricName="mae")
mae = evaluator_mae.evaluate(predictions)
evaluator_mse = RegressionEvaluator(predictionCol="prediction", labelCol="quality", metricName="mse")
mse = evaluator_mse.evaluate(predictions)
rmse = np.sqrt(mse)

# 打印评估结果
print(f"R²: {r2:.4f}")
print(f"MAE: {mae:.4f}")
print(f"MSE: {mse:.4f}")
print(f"RMSE: {rmse:.4f}")

# 将预测值转换为 Pandas DataFrame 以便绘图
predictions_pd = predictions.select("quality", "prediction").toPandas()
y_test = predictions_pd["quality"]
y_pred = predictions_pd["prediction"]

# 绘制实际值与预测值的对比图
plt.figure(figsize=(8, 6))
plt.scatter(y_test, y_pred, color="blue", alpha=0.6)
plt.plot([min(y_test), max(y_test)], [min(y_test), max(y_test)], 'r--')
plt.xlabel('Actual Quality')
plt.ylabel('Predicted Quality')
plt.title('Actual vs Predicted Wine Quality')
plt.show()

# 计算残差
residuals = y_test - y_pred

# 使用 Seaborn 绘制带核密度估计的残差直方图
plt.figure(figsize=(8, 6))
sns.histplot(residuals, kde=True, bins=20)
plt.title('Residuals Histogram with KDE')
plt.xlabel('Residuals')
plt.ylabel('Frequency')
plt.grid(True)
plt.show()

2、Sentosa_DSML社区版

  模型后接评估算子,对模型结果进行评估。算子流如下图所示:
在这里插入图片描述
  训练集和测试集的评估结果如下:
在这里插入图片描述
在这里插入图片描述
  右击模型,查看模型的模型信息:
在这里插入图片描述
在这里插入图片描述

六、总结

  相比传统代码方式,利用Sentosa_DSML社区版完成机器学习算法的流程更加高效和自动化,传统方式需要手动编写大量代码来处理数据清洗、特征工程、模型训练与评估,而在Sentosa_DSML社区版中,这些步骤可以通过可视化界面、预构建模块和自动化流程来简化,有效的降低了技术门槛,非专业开发者也能通过拖拽和配置的方式开发应用,减少了对专业开发人员的依赖。
  Sentosa_DSML社区版提供了易于配置的算子流,减少了编写和调试代码的时间,并提升了模型开发和部署的效率,由于应用的结构更清晰,维护和更新变得更加容易,且平台通常会提供版本控制和更新功能,使得应用的持续改进更为便捷。

  Sentosa数据科学与机器学习平台(Sentosa_DSML)是力维智联完全自主知识产权的一站式人工智能开发部署应用平台,可同时支持零代码“拖拉拽”与notebook交互式开发,旨在通过低代码方式帮助客户实现AI算法模型的开发、评估与部署,结合完善的数据资产化管理模式与开箱即用的简捷部署支持,可赋能企业、城市、高校、科研院所等不同客户群体,实现AI普惠、化繁为简。
  Sentosa_DSML产品由1+3个平台组成,以数据魔方平台(Sentosa_DC)为主管理平台,三大功能平台包括机器学习平台(Sentosa_ML)、深度学习平台(Sentosa_DL)和知识图谱平台(Sentosa_KG)。力维智联凭借本产品入选“全国首批人工智能5A等级企业”,并牵头科技部2030AI项目的重要课题,同时服务于国内多家“双一流”高校及研究院所。
  为了回馈社会,矢志推动全民AI普惠的实现,不遗余力地降低AI实践的门槛,让AI的福祉惠及每一个人,共创智慧未来。为广大师生学者、科研工作者及开发者提供学习、交流及实践机器学习技术,我们推出了一款轻量化安装且完全免费的Sentosa_DSML社区版软件,该软件包含了Sentosa数据科学与机器学习平台(Sentosa_DSML)中机器学习平台(Sentosa_ML)的大部分功能,以轻量化一键安装、永久免费使用、视频教学服务和社区论坛交流为主要特点,同样支持“拖拉拽”开发,旨在通过零代码方式帮助客户解决学习、生产和生活中的实际痛点问题。
  该软件为基于人工智能的数据分析工具,该工具可以进行数理统计与分析、数据处理与清洗、机器学习建模与预测、可视化图表绘制等功能。为各行各业赋能和数字化转型,应用范围非常广泛,例如以下应用领域:
  金融风控:用于信用评分、欺诈检测、风险预警等,降低投资风险;
  股票分析:预测股票价格走势,提供投资决策支持;
  医疗诊断:辅助医生进行疾病诊断,如癌症检测、疾病预测等;
  药物研发:进行分子结构的分析和药物效果预测,帮助加速药物研发过程;
  质量控制:检测产品缺陷,提高产品质量;
  故障预测:预测设备故障,减少停机时间;
  设备维护:通过分析机器的传感器数据,检测设备的异常行为;
  环境保护:用于气象预测、大气污染监测、农作物病虫害防止等;
  客户服务:通过智能分析用户行为数据,实现个性化客户服务,提升用户体验;
  销售分析:基于历史数据分析销量和价格,提供辅助决策;
  能源预测:预测电力、天然气等能源的消耗情况,帮助优化能源分配和使用;
  智能制造:优化生产流程、预测性维护、智能质量控制等手段,提高生产效率。

  欢迎访问Sentosa_DSML社区版的官网https://sentosa.znv.com/,免费下载体验。同时,我们在B站、CSDN、知乎、博客园等平台有技术讨论博客和应用案例分享,欢迎广大数据分析爱好者前往交流讨论。

  Sentosa_DSML社区版,重塑数据分析新纪元,以可视化拖拽方式指尖轻触解锁数据深层价值,让数据挖掘与分析跃升至艺术境界,释放思维潜能,专注洞察未来。
社区版官网下载地址:https://sentosa.znv.com/
社区版官方论坛地址:http://sentosaml.znv.com/
B站地址:https://space.bilibili.com/3546633820179281
CSDN地址:https://blog.csdn.net/qq_45586013?spm=1000.2115.3001.5343
知乎地址:https://www.zhihu.com/people/kennethfeng-che/posts
博客园地址:https://www.cnblogs.com/KennethYuen

Logo

助力广东及东莞地区开发者,代码托管、在线学习与竞赛、技术交流与分享、资源共享、职业发展,成为松山湖开发者首选的工作与学习平台

更多推荐