当前位置:首页 » 操作系统 » mh算法

mh算法

发布时间: 2022-09-13 14:58:59

‘壹’ 基于lbp的adaboost人脸检测中弱分类器是怎么生成的

Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练,最后将每次训练得到的分类器最后融合起来,作为最后的决策分类器。使用adaboost分类器可以排除一些不必要的训练数据特征,并将关键放在关键的训练数据上面。
目前,对Adaboost算法的研究以及应用大多集中于分类问题,同时近年也出 现了一些在回归问题上的应用。就其应用Adaboost系列主要解决了: 两类问题、 多类单标签问题、多类多标签问题、大类单标签问题,回归问题。它用全部的训练样本进行学习。
该算法其实是一个简单的弱分类算法提升过程,这个过程通过不断的训练,可以提高对数据的分类能力。整个过程如下所示:
1. 先通过对N个训练样本的学习得到第一个弱分类器 ;
2. 将 分错的样本和其他的新数据一起构成一个新的N个的训练样本,通过对这个样本的学习得到第二个弱分类器 ;
3. 将 和 都分错了的样本加上其他的新样本构成另一个新的N个的训练样本,通过对这个样本的学习得到第三个弱分类器 ;
4. 最终经过提升的强分类器 。即某个数据被分为哪一类要通过 , ……的多数表决。
2.3 Adaboost(Adaptive Boosting)算法
对于boosting算法,存在两个问题:
1. 如何调整训练集,使得在训练集上训练的弱分类器得以进行;
2. 如何将训练得到的各个弱分类器联合起来形成强分类器。
针对以上两个问题,adaboost算法进行了调整:
1. 使用加权后选取的训练数据代替随机选取的训练样本,这样将训练的焦点集中在比较难分的训练数据样本上;
2. 将弱分类器联合起来,使用加权的投票机制代替平均投票机制。让分类效果好的弱分类器具有较大的权重,而分类效果差的分类器具有较小的权重。
Adaboost算法是Freund和Schapire根据在线分配算法提出的,他们详细分析了Adaboost算法错误率 的上界,以及为了使强分类器 达到错误率 ,算法所需要的最多迭代次数等相关问题。与Boosting算法不同的是,adaboost算法不需要预先知道弱学习算法学习正确率的下限即弱分类器的误差,并且最后得到的强分类器的分类精度依赖于所有弱分类器的分类精度, 这样可以深入挖掘弱分类器算法的能力。
Adaboost算法中不同的训练集是通过调整每个样本对应的权重来实现的。开始时,每个样本对应的权重是相同的,即 其中 n 为样本个数,在此样本分布下训练出一弱分类器 。对于 分类错误的样本,加大其对应的权重;而对于分类正确的样本,降低其权重,这样分错的样本就被突出出来,从而得到一个新的样本分布 。在新的样本分布下,再次对弱分类器进行训练,得到弱分类器。依次类推,经过 T 次循环,得到 T 个弱分类器,把这 T 个弱分类器按一定的权重叠加(boost)起来,得到最终想要的强分类器。
Adaboost算法的具体步骤如下:
1. 给定训练样本集 ,其中 分别对应于正例样本和负例样本; 为训练的最大循环次数;
2. 初始化样本权重 ,即为训练样本的初始概率分布;
3. 第一次迭代:
(1) 训练样本的概率分布 下,训练弱分类器:
(2) 计算弱分类器的错误率:
(3) 选取 ,使得 最小
(4) 更新样本权重:
(5) 最终得到的强分类器:
Adaboost算法是经过调整的Boosting算法,其能够对弱学习得到的弱分类器的错误进行适应性调整。上述算法中迭代了 次的主循环,每一次循环根据当前的权重分布 对样本x定一个分布P,然后对这个分布下的样本使用若学习算法得到一个错误率为 的弱分类器 ,对于这个算法定义的弱学习算法,对所有的 ,都有 ,而这个错误率的上限并不需要事先知道,实际上 。每一次迭代,都要对权重进行更新。更新的规则是:减小弱分类器分类效果较好的数据的概率,增大弱分类器分类效果较差的数据的概率。最终的分类器是 个弱分类器的加权平均。
第一部分:算法的产生
1996年Yoav Freund在Experiments with a New Boosting Algorithm中提出了AdaBoost.M1和AdaBoost.M2两种算法.其中,AdaBoost.M1是我们通常所说的Discrete AdaBoost;而AdaBoost.M2是M1的泛化形式.该文的一个结论是:当弱分类器算法使用简单的分类方法时,boosting的效果明显地统一地比bagging要好.当弱分类器算法使用C4.5时,boosting比bagging较好,但是没有前者的比较来得明显.
文献中记录的.M1算法
初始
1.获得一组样本(X)和它的分类(Y)和一个分类器(weaklearn).
2.赋予平均的权值分布D(i)
进入循环:T次
1. 赋予弱分类器权值D(i),使用弱分类器获得样本(X)到分类(Y)上的一个映射.(就是把某个X归到某个Y类中去)
2. 计算这个映射的误差e.e=各个归类错误的样本权值之和.如果e>1/2那么弱分类器训练失败,挑出循环,训练结束(这在二值检测中是不会发生的,而多值的情况就要看分类器够不够强健了)
3. 设B = e / ( 1 - e ).用于调整权值.因为e<1/2.因此0<B<1
4. 如果某样本分类正确,该样本的权值就乘以B让权值变小;如果分类错误,就让该样本的权值乘以B^-1或者不变,这样就让分类正确的样本权值降低,分类错误的样本权值升高,加强了对较难分类样本的分类能力
5. 权值均衡化
循环结束
1. 最终的分类器是,当一个X进入时,遍历所有Y,寻找使(h(x)=y的情况下,log(1/B)之和)最大者即是输出分类y
M2相比于M1的改进是允许弱分类器输出多个分类结果,并输出这几个分类结果的可能性(注意,这里不是概率)
.M2的流程是
1.获得一组样本(X)和它的分类(Y)和一个分类器(weaklearn).
2.对于某个样本Xi将它的分类归为一个正确分类Yi和其他不正确分类Yb
3.样本权值进行如下分布首先每个样本分到1/m的权值,然后每个不正确分类分到(1/m)/Yb的个数.也就是说样本权值是分到了每个不正确的分类上
进入循环
1. 求每个样本的权值,即每个样本所有不正确的分类的权值和,再求每个样本错误分类的权值,即不正确分类的权值除以该样本的权值.最后将每个样本的权值归一化
2. 将样本权值和某样本的不正确分类的权值输入到weaklearn,获得弱分类器的输出为各个分类的可能值
3. 计算伪错误率:公式见上
4. 更新权值
退出循环
最终的强分类器: 图贴不出来了...
1999年, ROBERT E. SCHAPIRE和YORAM SINGER,于Machine Learning发表论文: Improved Boosting Algorithms Using Confidence-rated Predictions.提出了更具一般性的AdaBoost形式.提出了自信率以改善AdaBoost的性能.并提出了解决多标签问题的AdaBoost.MH和AdaBoost.MR算法,其中AdaBoost.MH算法的一种形式又被称为Real Boost算法.
事实上:Discrete AdaBoost是指,弱分类器的输出值限定在{-1,+1},和与之相应的权值调整,强分类器生成的AdaBoost算法;Real AdaBoost是指,弱分类器输出一个可能度,该值的范围是整个R, 和与之相应的权值调整,强分类器生成的AdaBoost算法。事实上,Discrete到Real的转变体现了古典集合到模糊集合转变的思想
至于Gentle AdaBoost.考虑到(AdaBoost对”不像”的正样本权值调整很高,而导致了分类器的效率下降),而产生的变种算法.它较少地强调难以分类的样本.

‘贰’ 圆锥体积的计算方法

圆锥体体积=底×高÷3
长方形的周长=(长+宽)×2
正方形的周长=边长×4
长方形的面积=长×宽
正方形的面积=边长×边长
三角形的面积=底×高÷2
平行四边形的面积=底×高
梯形的面积=(上底+下底)×高÷2
直径=半径×2 半径=直径÷2
圆的周长=圆周率×直径=
圆周率×半径×2
圆的面积=圆周率×半径×半径
长方体的表面积=
(长×宽+长×高+宽×高)×2
长方体的体积 =长×宽×高
正方体的表面积=棱长×棱长×6
正方体的体积=棱长×棱长×棱长
圆柱的侧面积=底面圆的周长×高
圆柱的表面积=上下底面面积+侧面积
圆柱的体积=底面积×高
圆锥的体积=底面积×高÷3
长方体(正方体、圆柱体)
的体积=底面积×高
平面图形
名称 符号 周长C和面积S
正方形 a—边长 C=4a
S=a2
长方形 a和b-边长 C=2(a+b)
S=ab
三角形 a,b,c-三边长
h-a边上的高
s-周长的一半
A,B,C-内角
其中s=(a+b+c)/2 S=ah/2
=ab/2·sinC
=[s(s-a)(s-b)(s-c)]1/2
=a2sinBsinC/(2sinA)
四边形 d,D-对角线长
α-对角线夹角 S=dD/2·sinα
平行四边形 a,b-边长
h-a边的高
α-两边夹角 S=ah
=absinα
菱形 a-边长
α-夹角
D-长对角线长
d-短对角线长 S=Dd/2
=a2sinα
梯形 a和b-上、下底长
h-高
m-中位线长 S=(a+b)h/2
=mh
圆 r-半径
d-直径 C=πd=2πr
S=πr2
=πd2/4
扇形 r—扇形半径
a—圆心角度数
C=2r+2πr×(a/360)
S=πr2×(a/360)
弓形 l-弧长
b-弦长
h-矢高
r-半径
α-圆心角的度数 S=r2/2·(πα/180-sinα)
=r2arccos[(r-h)/r] - (r-h)(2rh-h2)1/2
=παr2/360 - b/2·[r2-(b/2)2]1/2
=r(l-b)/2 + bh/2
≈2bh/3
圆环 R-外圆半径
r-内圆半径
D-外圆直径
d-内圆直径 S=π(R2-r2)
=π(D2-d2)/4
椭圆 D-长轴
d-短轴 S=πDd/4
立方图形
名称 符号 面积S和体积V
正方体 a-边长 S=6a2
V=a3
长方体 a-长
b-宽
c-高 S=2(ab+ac+bc)
V=abc
棱柱 S-底面积
h-高 V=Sh
棱锥 S-底面积
h-高 V=Sh/3
棱台 S1和S2-上、下底面积
h-高 V=h[S1+S2+(S1S1)1/2]/3
拟柱体 S1-上底面积
S2-下底面积
S0-中截面积
h-高 V=h(S1+S2+4S0)/6
圆柱 r-底半径
h-高
C—底面周长
S底—底面积
S侧—侧面积
S表—表面积 C=2πr
S底=πr2
S侧=Ch
S表=Ch+2S底
V=S底h
=πr2h
空心圆柱 R-外圆半径
r-内圆半径
h-高 V=πh(R2-r2)
直圆锥 r-底半径
h-高 V=πr2h/3
圆台 r-上底半径
R-下底半径
h-高 V=πh(R2+Rr+r2)/3
球 r-半径
d-直径 V=4/3πr3=πd2/6
球缺 h-球缺高
r-球半径
a-球缺底半径 V=πh(3a2+h2)/6
=πh2(3r-h)/3
a2=h(2r-h)
球台 r1和r2-球台上、下底半径
h-高 V=πh[3(r12+r22)+h2]/6
圆环体 R-环体半径
D-环体直径
r-环体截面半径
d-环体截面直径 V=2π2Rr2
=π2Dd2/4
桶状体 D-桶腹直径
d-桶底直径
h-桶高 V=πh(2D2+d2)/12
(母线是圆弧形,圆心是桶的中心)
V=πh(2D2+Dd+3d2/4)/15

‘叁’ 有谁用matlab做过聚类算法

分类算法,参数分别为G(相似度矩阵),r(邻居门限),lambda(类门限),返回值A,一个cell数组,每个元素是一个向量,包含了一个类的所有元素。
function A=BFSN_Algorithm(G,r,lambda)
%广度优先搜索邻居的聚类算法实现
%G为相似度矩阵
%r和lambda为参数
%r为邻居门限,相似度大于r即为邻居
%lambda门限
%未分类元素对于某类的所有元素,如果是邻居则令X(i)=1,否则为0.i为类元素的下标
%对X求和并除以类元素个数,若此值大于lambda门限,则该未分类元素属于这类
%打开计时器
tic
%A为聚类结果
A={};
%k为分类计数
k=1;
%n为待分类元素个数
n=size(G,1);
%构建元素向量
member=1:n;
%只要member中还有未分类的元素就继续循环
while numel(member)~=0
%从member中取出一个元素a
a=member(1);
%新建空类A并将a送入Ak类
Ak=a;
%从member中删除a
member(1)=[];
%扫描member中的所有元素
%queue为广度优先搜索使用的队列
%将a送入queue中
queue=a;
%已访问过的元素
visited=zeros(1,n);
%如果队列非空说明还有没有检验过的邻居
while numel(queue)~=0
%一个元素出队
p=queue(1);
queue(1)=[];
%扫描member中所有元素
for count=1:numel(member)
%用member(count)作为待分类的元素
%p是从queue中取出,找到p的所有未访问邻居
if G(p,member(count))>r && visited(member(count))==0
%满足if的member(count)是未访问过的邻居
%放入queue中
queue=[queue member(count)];
%member(count)已经访问过了
visited(member(count))=1;
if sum(G(member(count),Ak)>r)/numel(Ak)>=lambda
%满足if的元素属于Ak类,根据lambda门限判断
Ak=[Ak member(count)];
member(count)=-1;
end
end
end
%删除member中已分类的元素
member(member==-1)=[];
end
%将Ak保存在cell数组A的第k个位置
A{k}=Ak;
%k指向下一个分类
k=k+1;
end
%关闭计时器
toc
由于编写的时候比较仓促,应该有很大的优化的余地。
plotAllClass.m
绘制已分类数据的图形,参数:data元素数据,A分类表,一个cell数组,调用BFSN_Algorithm得到。
function plotAllClass(data,A)
%data:m行2列的矩阵,m行代表m个元素,
%第一列为每个元素的横坐标
%第二列为每个元素的纵坐标
%A为分类列表,
%有c个元素的cell数组
%每个元素是一个向量
%包含了一个分类的所有元素在data中的行
%n=类别数
n=numel(A);
%绘图图案列表
style=['r*';'g*';'b*';'c*';'m*';'y*';'k*';...
'r+';'g+';'b+';'c+';'m+';'y+';'k+';...
'rs';'gs';'bs';'cs';'ms';'ys';'ks';...
'rp';'gp';'bp';'cp';'mp';'yp';'kp';...
'rh';'gh';'bh';'ch';'mh';'yh';'kh';...
'rd';'gd';'bd';'cd';'md';'yd';'kd';...
'ro';'go';'bo';'co';'mo';'yo';'ko';...
'rx';'gx';'bx';'cx';'mx';'yx';'kx';...
'rv';'gv';'bv';'cv';'mv';'yv';'kv';...
'r<';'g<';'b<';'c<';'m<';'y<';'k<';...
'r>';'g>';'b>';'c>';'m>';'y>';'k>';...
'r^';'g^';'b^';'c^';'m^';'y^';'k^';...
'r.';'g.';'b.';'c.';'m.';'y.';'k.'];
figure;
hold on;
for count=1:n
plot(data(A{count},1),data(A{count},2),style(count,:));
end
hold off;
这个函数最多能够绘制91个类别,如果有超过91个类,函数会出错。
show.m
包含了一个完整的流程,包括数据生成,相似度矩阵生成,分类,类别绘制。
%show.m
data=rand(200,2);
figure;
plot(data(:,1),data(:,2),'+');
G=createSimiR(data);
A=BFSN_Algorithm(G,0.95,0.95);
plotAllClass(data,A);

‘肆’ mh/s和h/s哪个挖的币多

摘要 当然是mh/s,这个要快1000000倍,100万次哈希运算一秒

‘伍’ 求助,如何确定adaboost算法的弱分类器

去博客上看看吧,网络知道这里不会图文并茂的说,不过其实弱分类器的创建可以看看opencv的haartraning代码,简单说来一句话,就是讲候选特征全部筛选一遍,基于正确分类个数找到表现最好的特征即为弱分类器,弱分类器的筛选只是第一步,后续还会有强分类器的创建,以及级联分类器的创建,推荐你看两篇csdn的博客:

  1. 《Opencv研读笔记:haartraining程序之cvCreateMTStumpClassifier函数详解(弱分类器创建)~》

  2. 《谈谈对Gentle Adaboost的一点理解~》

‘陆’ MH算法u<a为什么

//#include "stdafx.h"//vc++6.0加上这一行.
#include <iostream>
#include "stdlib.h"
using namespace std;
void main(void){
int *a,i,j,L,U,n;
cout << "Enter n(int)\nn=";
cin >> n;
if((a=new int[n])==NULL){
cout << "Application memory failure\n";
exit(0);
}
for(i=0;i<n;a[i]=1+i++);
cout << "Enter L U\n";
cin >> L >> U;
for(i=0;a[i]<L;i++);
for(j=n-1;a[j]>U;j--);
for(i++;i<j;cout << a[i++] << ' ');
cout << endl;
}

‘柒’ Metropolis法和Metropolis-Hastings法有什么区别吗各自的优点是什么呢感谢大神

原文链接:http://tecdat.cn/?p=19664

MCMC是从复杂概率模型中采样的通用技术。

  • 蒙特卡洛

  • 马尔可夫链

  • Metropolis-Hastings算法

  • 问题

    如果需要计算有复杂后验pdf p(θ| y)的随机变量θ的函数f(θ)的平均值或期望值。

    最受欢迎的见解

    1.用R语言模拟混合制排队随机服务排队系统

    2.R语言中使用排队论预测等待时间

    3.R语言中实现马尔可夫链蒙特卡罗MCMC模型

    4.R语言中的马尔科夫机制转换(Markov regime switching)模型

    5.matlab贝叶斯隐马尔可夫hmm模型

    6.用R语言模拟混合制排队随机服务排队系统

    7.Python基于粒子群优化的投资组合优化

    8.R语言马尔可夫转换模型研究交通伤亡人数事故预测

    9.用机器学习识别不断变化的股市状况——隐马尔可夫模型的应用

‘捌’ 圆锥体积的计算方法

圆锥体体积=底×高÷3
长方形的周长=(长+宽)×2
正方形的周长=边长×4
长方形的面积=长×宽
正方形的面积=边长×边长
三角形的面积=底×高÷2
平行四边形的面积=底×高
梯形的面积=(上底+下底)×高÷2
直径=半径×2
半径=直径÷2
圆的周长=圆周率×直径=
圆周率×半径×2
圆的面积=圆周率×半径×半径
长方体的表面积=
(长×宽+长×高+宽×高)×2
长方体的体积
=长×宽×高
正方体的表面积=棱长×棱长×6
正方体的体积=棱长×棱长×棱长
圆柱的侧面积=底面圆的周长×高
圆柱的表面积=上下底面面积+侧面积
圆柱的体积=底面积×高
圆锥的体积=底面积×高÷3
长方体(正方体、圆柱体)
的体积=底面积×高
平面图形
名称
符号
周长C和面积S
正方形
a—边长
C=4a
S=a2
长方形
a和b-边长
C=2(a+b)
S=ab
三角形
a,b,c-三边长
h-a边上的高
s-周长的一半
A,B,C-内角
其中s=(a+b+c)/2
S=ah/2
=ab/2·sinC
=[s(s-a)(s-b)(s-c)]1/2
=a2sinBsinC/(2sinA)
四边形
d,D-对角线长
α-对角线夹角
S=dD/2·sinα
平行四边形
a,b-边长
h-a边的高
α-两边夹角
S=ah
=absinα
菱形
a-边长
α-夹角
D-长对角线长
d-短对角线长
S=Dd/2
=a2sinα
梯形
a和b-上、下底长
h-高
m-中位线长
S=(a+b)h/2
=mh

r-半径
d-直径
C=πd=2πr
S=πr2
=πd2/4
扇形
r—扇形半径
a—圆心角度数
C=2r+2πr×(a/360)
S=πr2×(a/360)
弓形
l-弧长
b-弦长
h-矢高
r-半径
α-圆心角的度数
S=r2/2·(πα/180-sinα)
=r2arccos[(r-h)/r]
-
(r-h)(2rh-h2)1/2
=παr2/360
-
b/2·[r2-(b/2)2]1/2
=r(l-b)/2
+
bh/2
≈2bh/3
圆环
R-外圆半径
r-内圆半径
D-外圆直径
d-内圆直径
S=π(R2-r2)
=π(D2-d2)/4
椭圆
D-长轴
d-短轴
S=πDd/4
立方图形
名称
符号
面积S和体积V
正方体
a-边长
S=6a2
V=a3
长方体
a-长
b-宽
c-高
S=2(ab+ac+bc)
V=abc
棱柱
S-底面积
h-高
V=Sh
棱锥
S-底面积
h-高
V=Sh/3
棱台
S1和S2-上、下底面积
h-高
V=h[S1+S2+(S1S1)1/2]/3
拟柱体
S1-上底面积
S2-下底面积
S0-中截面积
h-高
V=h(S1+S2+4S0)/6
圆柱
r-底半径
h-高
C—底面周长
S底—底面积
S侧—侧面积
S表—表面积
C=2πr
S底=πr2
S侧=Ch
S表=Ch+2S底
V=S底h
=πr2h
空心圆柱
R-外圆半径
r-内圆半径
h-高
V=πh(R2-r2)
直圆锥
r-底半径
h-高
V=πr2h/3
圆台
r-上底半径
R-下底半径
h-高
V=πh(R2+Rr+r2)/3

r-半径
d-直径
V=4/3πr3=πd2/6
球缺
h-球缺高
r-球半径
a-球缺底半径
V=πh(3a2+h2)/6
=πh2(3r-h)/3
a2=h(2r-h)
球台
r1和r2-球台上、下底半径
h-高
V=πh[3(r12+r22)+h2]/6
圆环体
R-环体半径
D-环体直径
r-环体截面半径
d-环体截面直径
V=2π2Rr2
=π2Dd2/4
桶状体
D-桶腹直径
d-桶底直径
h-桶高
V=πh(2D2+d2)/12
(母线是圆弧形,圆心是桶的中心)
V=πh(2D2+Dd+3d2/4)/15

‘玖’ 匀加速直线运动相同时间间隔瞬时速度算法

第三个T的终了时刻的瞬时速度为3m/s,则v3=3aT,即3=3aT、、、、(1)
第三个T时间的位移是全部位移的5/9,所以前3T时间内的位移为x则X*5/9=3,得X=5.4m、、、、(2)
由初速度为零的匀加速直线运动位移公式得X=a(3T)^2/2即5.4=9T^2/2、、、、、、(3)
MH (1)(2)(3)得T=1.2s

‘拾’ 推荐算法有哪些

推荐算法大致可以分为三类:基于内容的推荐算法、协同过滤推荐算法和基于知识的推荐算法。 基于内容的推荐算法,原理是用户喜欢和自己关注过的Item在内容上类似的Item,比如你看了哈利波特I,基于内容的推荐算法发现哈利波特II-VI,与你以前观看的在内容上面(共有很多关键词)有很大关联性,就把后者推荐给你,这种方法可以避免Item的冷启动问题(冷启动:如果一个Item从没有被关注过,其他推荐算法则很少会去推荐,但是基于内容的推荐算法可以分析Item之间的关系,实现推荐),弊端在于推荐的Item可能会重复,典型的就是新闻推荐,如果你看了一则关于MH370的新闻,很可能推荐的新闻和你浏览过的,内容一致;另外一个弊端则是对于一些多媒体的推荐(比如音乐、电影、图片等)由于很难提内容特征,则很难进行推荐,一种解决方式则是人工给这些Item打标签。 协同过滤算法,原理是用户喜欢那些具有相似兴趣的用户喜欢过的商品,比如你的朋友喜欢电影哈利波特I,那么就会推荐给你,这是最简单的基于用户的协同过滤算法(user-based collaboratIve filtering),还有一种是基于Item的协同过滤算法(item-based collaborative filtering),这两种方法都是将用户的所有数据读入到内存中进行运算的,因此成为Memory-based Collaborative Filtering,另一种则是Model-based collaborative filtering,包括Aspect Model,pLSA,LDA,聚类,SVD,Matrix Factorization等,这种方法训练过程比较长,但是训练完成后,推荐过程比较快。 最后一种方法是基于知识的推荐算法,也有人将这种方法归为基于内容的推荐,这种方法比较典型的是构建领域本体,或者是建立一定的规则,进行推荐。 混合推荐算法,则会融合以上方法,以加权或者串联、并联等方式尽心融合。 当然,推荐系统还包括很多方法,其实机器学习或者数据挖掘里面的方法,很多都可以应用在推荐系统中,比如说LR、GBDT、RF(这三种方法在一些电商推荐里面经常用到),社交网络里面的图结构等,都可以说是推荐方法。

热点内容
怎么设置电脑开机密码和屏幕锁 发布:2025-05-16 03:07:05 浏览:55
华为锁屏密码忘记了怎么解锁 发布:2025-05-16 03:06:26 浏览:474
安卓文字为什么没有苹果舒服 发布:2025-05-16 03:01:26 浏览:357
phpnow解压版 发布:2025-05-16 02:52:49 浏览:811
dmporacle数据库 发布:2025-05-16 02:44:31 浏览:831
云主机上传 发布:2025-05-16 02:44:30 浏览:82
鼠标如何编程 发布:2025-05-16 02:29:09 浏览:816
安卓70能用什么软件 发布:2025-05-16 01:45:09 浏览:481
编程发展史 发布:2025-05-16 01:38:52 浏览:529
android图片气泡 发布:2025-05-16 01:38:40 浏览:887