Message Board

Dear readers, authors and reviewers,you can add a message on this page. We will reply to you as soon as possible!

2021 Volume 43 Issue 10
Article Contents

LYU Yalan, ZHANG Hengru, QIN Qin, et al. Efficient Recommendation of New Triangular Distance for Multi-channel Feature Vectors[J]. Journal of Southwest University Natural Science Edition, 2021, 43(10): 19-28. doi: 10.13718/j.cnki.xdzk.2021.10.003
Citation: LYU Yalan, ZHANG Hengru, QIN Qin, et al. Efficient Recommendation of New Triangular Distance for Multi-channel Feature Vectors[J]. Journal of Southwest University Natural Science Edition, 2021, 43(10): 19-28. doi: 10.13718/j.cnki.xdzk.2021.10.003

Efficient Recommendation of New Triangular Distance for Multi-channel Feature Vectors

More Information
  • Corresponding author: ZHANG Hengru ; 
  • Received Date: 25/05/2021
    Available Online: 20/10/2021
  • MSC: TP391

  • In order to simultaneously enhance the accuracy and efficiency of the recommender system, this paper designs a new triangular distance recommendation algorithm for multi-channel feature vectors. Firstly, we use item's rating matrix to extract multi-channel feature vectors. Secondly, we combine the triangular distance and Jaccard similarity coefficient to conduct a new triangular distance. Finally, we apply this distance to the k-nearest neighbor algorithm to characterize the similarity between two items. The experimental results on 4 real datasets show that the proposed algorithm is more efficient and better accuracy.
  • 加载中
  • [1] EKSTRAND M D. Collaborative Filtering Recommender Systems[J]. Foundations and Trends © in Human-Computer Interaction, 2011, 4(2): 81-173. doi: 10.1561/1100000009

    CrossRef Google Scholar

    [2] ZHANG S C, LI X L, ZONG M, et al. Efficient kNN Classification with Different Numbers of Nearest Neighbors[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(5): 1774-1785. doi: 10.1109/TNNLS.2017.2673241

    CrossRef Google Scholar

    [3] ZHANG S, LIU L X, CHEN Z L, et al. Probabilistic Matrix Factorization with Personalized Differential Privacy[J]. Knowledge-Based Systems, 2019, 183: 104864. doi: 10.1016/j.knosys.2019.07.035

    CrossRef Google Scholar

    [4] WEI J, HE J H, CHEN K, et al. Collaborative Filtering and Deep Learning Based Recommendation System for Cold Start Items[J]. Expert Systems With Applications, 2017, 69: 29-39. doi: 10.1016/j.eswa.2016.09.040

    CrossRef Google Scholar

    [5] STRANG G. The Discrete Cosine Transform[J]. SIAM Review, 1999, 41(1): 135-147. doi: 10.1137/S0036144598336745

    CrossRef Google Scholar

    [6] HU J Y, GAO Z W, PAN W S. Multiangle Social Network Recommendation Algorithms and Similarity Network Evaluation[J]. Journal of Applied Mathematics, 2013, 2013: 248084.

    Google Scholar

    [7] RICCI F, ROKACH L, SHAPIRA B. Introduction to Recommender Systems Handbook[M]. Springer: Recommender Systems Handbook, 2011: 1-35.

    Google Scholar

    [8] LI R Z, ZHONG W, ZHU L P. Feature Screening via Distance Correlation Learning[J]. Journal of the American Statistical Association, 2012, 107(499): 1129-1139. doi: 10.1080/01621459.2012.695654

    CrossRef Google Scholar

    [9] ZHANG H R, MIN F, ZHANG Z H, et al. Efficient Collaborative Filtering Recommendations with Multi-Channel Feature Vectors[J]. International Journal of Machine Learning and Cybernetics, 2019, 10(5): 1165-1172. doi: 10.1007/s13042-018-0795-8

    CrossRef Google Scholar

    [10] ZHANG H R, MIN F, SHI B. Regression-Based Three-Way Recommendation[J]. Information Sciences, 2017, 378: 444-461. doi: 10.1016/j.ins.2016.03.019

    CrossRef Google Scholar

    [11] QIAN G, SURAL S, GU Y L, et al. Similarity Between Euclidean and Cosine Angle Distance for Nearest Neighbor Queries[C] // Proceedings of the 2004 ACM Symposium on Applied Computing. New York: ACM Press, 2004: 1232-1237.

    Google Scholar

    [12] PATRA B K, LAUNONEN R, OLLIKAINEN V, et al. A New Similarity Measure Using Bhattacharyya Coefficient for Collaborative Filtering in Sparse Data[J]. Knowledge-Based Systems, 2015, 82: 163-177. doi: 10.1016/j.knosys.2015.03.001

    CrossRef Google Scholar

    [13] CHANG D J, DESOKY A H, MING O Y, et al. Compute Pairwise Manhattan Distance and Pearson Correlation Coefficient of Data Points with GPU[C] //2009 10th ACIS International Conference on Software Engineering, Artificial Intelligences, Networking and Parallel/Distributed Computing. Daegu, Korea (South): IEEE, 2009: 501-506.

    Google Scholar

    [14] JIA X Y, LI W W, LIU J Y, et al. Label Distribution Learning by Exploiting Label Correlations[C] // Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Menlo park, CA, AAAI, 2018: 3310-3317.

    Google Scholar

    [15] GENG X, HOU P. Pre-Release Prediction of Crowd Opinion on Movies by Label Distribution Learning[C] //IJCAI'15: Proceedings of the 24th International Conference on Artificial Intelligence, 2015: 3511-3517.

    Google Scholar

    [16] CHA S H. Comprehensive Survey on Distance/Similarity Measures between Probability Density Functions[J]. International Journal of Mathematical Models and Methods in Applied Sciences, 2007, 1(4): 300-307.

    Google Scholar

    [17] DEZA E, DEZA M M. Distances in Geometry[M] //Dictionary of Distances. Amsterdam: Elsevier, 2006: 62-80.

    Google Scholar

    [18] COX T, COX M. Multidimensional Scaling[M]. Chapman and Hall/CRC, 2000.

    Google Scholar

    [19] WANG J, DE VRIES A P, REINDERS M J T. Unified Relevance Models for Rating Prediction in Collaborative Filtering[J]. ACM Transactions on Information Systems, 2008, 26(3): 1-42.

    Google Scholar

    [20] SARWAR B, KARYPIS G, KONSTAN J, et al. Item-Based Collaborative Filtering Recommendation Algorithms[C] //Proceedings of the Tenth International Conference on World Wide Web. New York: ACM Press, 2001: 285-295.

    Google Scholar

    [21] WILLMOTT C J, MATSUURA K. Advantages of the Mean Absolute Error (MAE)over the Root Mean Square Error (RMSE) in Assessing Average Model Performance[J]. Climate Research, 2005, 30: 79-82. doi: 10.3354/cr030079

    CrossRef Google Scholar

    [22] BERGER A, GUDA S. Threshold Optimization for F Measure of Macro-Averaged Precision and Recall[J]. Pattern Recognition, 2020, 102: 107250. doi: 10.1016/j.patcog.2020.107250

    CrossRef Google Scholar

  • 加载中
通讯作者: 陈斌, bchen63@163.com
  • 1. 

    沈阳化工大学材料科学与工程学院 沈阳 110142

  1. 本站搜索
  2. 百度学术搜索
  3. 万方数据库搜索
  4. CNKI搜索

Figures(2)  /  Tables(6)

Article Metrics

Article views(1611) PDF downloads(130) Cited by(0)

Access History

Other Articles By Authors

Efficient Recommendation of New Triangular Distance for Multi-channel Feature Vectors

    Corresponding author: ZHANG Hengru ; 

Abstract: In order to simultaneously enhance the accuracy and efficiency of the recommender system, this paper designs a new triangular distance recommendation algorithm for multi-channel feature vectors. Firstly, we use item's rating matrix to extract multi-channel feature vectors. Secondly, we combine the triangular distance and Jaccard similarity coefficient to conduct a new triangular distance. Finally, we apply this distance to the k-nearest neighbor algorithm to characterize the similarity between two items. The experimental results on 4 real datasets show that the proposed algorithm is more efficient and better accuracy.

  • 开放科学(资源服务)标志码(OSID):

  • 推荐系统是目前解决信息过载的有效手段. 协同过滤[1]是主流的推荐算法之一,它利用历史评分数据来获取用户对项目的偏好. 协同过滤按照不同的实现方式可以分为基于k近邻[2]、基于矩阵分解[3]以及基于神经网络的协同过滤算法[4]等. k近邻利用历史评分获取k个具有相似偏好的用户或者具有相似属性的项目[2],常用表征用户或项目相似度的距离有:Cosine[5],PCC(pearson correlation coefficient)[6],Jaccard[7]和CPC(constrained pearson correlation)[8]. 然而这些算法大都采用用户或者项目的全局评分来计算相似度,导致其时间复杂度较高,推荐效率低.

    本文提出了一种多通道特征向量的新三角距离推荐算法(new triangular distance recommendation algorithm for multi-channel feature vector,NTRFC). 算法的输入为从原始评分矩阵中提取的多通道特征向量(简称特征向量),在k近邻算法中采用新三角距离,从而提高推荐效率并保持较好的推荐准确度.

    首先,从原始评分矩阵中提取得到特征向量,其通道数目为原始评分矩阵中评分等级的数目[9],将其作为输入,可有效降低算法的复杂度. 假定评分矩阵有n个用户,m个项目,以及l个评分等级. 以原始评分矩阵为输入,计算相似度的时间复杂度为O(nm),而以多通道特征向量为输入,计算相似度的时间复杂度是O(lm). 评分矩阵中用户数目n远远大于评分等级数目l,故O(lm)远远小于O(nm). 例如,数据集Amazon(http://snap.stanford.edu/data/web-Amazonlinks.html)和Movielens943u (https://grouplens.org/datasets/movielens/100k/)的评分等级均为1~5分,故它们的通道数目为5,即每个项目的特征向量长度为5.

    其次,利用两个项目的特征向量构建新三角距离. 该距离将三角距离和Jaccard系数结合. 这是因为在提取特征向量后,损失了用户、项目以及评分之间的关系信息,仅保留用户对项目评分的数量信息. 若仅考虑三角距离,则无法精确判断项目之间的相似度. 考虑到Jaccard系数能充分利用共同评分项目数占所有项目数的比值信息,故结合Jaccard系数,从而在一定程度上弥补了原始评分信息.

    最后,将设计的新三角距离用于k近邻算法中,以判断两个项目的相似度. 本文提出的NTRFC算法与基于其他距离的k近邻算法在4个真实数据集上进行对比实验,利用6种准确度指标和运行时间进行评价. 实验结果表明:NTRFC算法运行时间低于已有算法,并在大部分准确度指标上占优.

1.   相关工作
  • 本节介绍评分系统[10]定义和常见的几种距离,本文使用的符号见表 1.

  • 现回顾评分系统[10]的定义,令U={u1u2,…,un}为一个推荐系统的用户集合,令T={t1t2,…,tm}为推荐给用户的项目集合,由此,评分函数定义为

    其中,R为一个n×m的评分矩阵;R=(rip)n×mC表示用户评价每个项目的评分等级构成的集合,如C={1,2,3,4,5}.

    表 2给出了一个用户数为5和项目数为6的评分矩阵. 评级为1~5分,则通道数为5. 评分反映出用户对项目的喜爱程度,分值越高表示用户越喜爱该项目,0表示用户未给项目评分. rip表示用户ui给项目tp的实际评分,G(tptq)表示对项目tptq共同评分的用户集合. 例如,r12=3表示用户u1给项目t2评分为3分,G(t1t2)={u1u4}表示对项目t1t2共同评分的用户是u1u4.

  • k近邻算法通常计算用户或项目之间的距离来寻找用户或项目的邻居,从而预测用户对项目的评分. 表 3列出了9个常用距离度量公式,并分析它们的时间复杂度.

    表 3中,Cosine[5],ED[11],BC[12],PCC[6],MD[13],SØrensen[14-15],Canberra[16],Lorentzian[17]和Divergence[18]距离的时间复杂度均为O(n),但BC[12]距离的时间复杂度为O(l). 其中,n表示输入向量的长度,l表示评分的等级数.

2.   NTRFC
  • NTRFC首先利用原始评分矩阵提取特征向量,然后基于特征向量设计新三角距离,最后将新三角距离应用到k近邻算法中.

  • 项目的评分等级构成通道集合C. 例如,当评分等级为1~5分时,通道集合C={1,2,3,4,5}. 该集合包含有通道1~5,通道数l为5. 为了处理项目的离散评分,本文将每个项目的评分映射到多个通道.

    用户ui对项目tp的评分rip与通道的关系为

    其中c表示当前通道数值.

    ripc相等时,连接用户ui和通道c的边的数量加1. 项目tp上通道c的连接数为

    对于长度为l的通道,项目tp提取后的特征向量为

    表 2展示的评分矩阵为例,项目t1对应的特征向量为v1= [0, 2, 0, 1 , 0],如图 1.

  • 利用特征向量,设计新三角距离公式为

    其中,vpvq分别为项目tptq的特征向量.NT(vpvq)为三角距离,Jaccard(tptq)为Jaccard系数.

    其中‖·‖为向量的二范数. Jaccard(tpt)为

    其中,Ip为对项目tp评过分的用户集合;Iq为对项目tq评过分的用户集合;|·|表示集合的基.

    为了更准确地描述项目之间的相似度,新三角距离引入Jaccard系数. 这是由于原始评分矩阵进行特征向量提取后,损失了用户、项目以及评分之间的对应关系信息,只保留了用户对项目评分的数量信息. 如果仅使用三角距离或其他一般距离则无法准确计算项目之间的相似度. 以表 2中项目t5t6为例,通过提取后它们的特征向量v5v6均为[0, 0, 0, 1 , 1] ,使用三角距离计算后相似度为1,使用Cosine距离计算后相似度也为1. 但实际上,t5t6的评分分别来源于完全不同的用户u1u2u4u5. 使用新三角距离计算得到相似度为0,更加合理.

    表 2展示的评分矩阵为例,使用新三角距离计算项目t1t2相似度流程如下:

    1) 提取项目t1t2的特征向量v1=[0, 2, 0, 1 , 0]和v2= [0, 1 , 1 , 1 , 0].

    2) 计算NT距离为

    计算Jaccard系数为$\frac{{\left| {{I_1} \cap {I_2}} \right|}}{{\left| {{I_1} \cup {I_2}} \right|}} = \frac{2}{5} = 0.40$,故NTJ(v1v2t1t2) =NT*Jaccard=0.29*0.4=0.116.

  • 将新三角距离应用到k近邻算法[19]中,预测用户对项目的评分. 其计算公式[20]定义为

    其中,rip*表示用户ui给物品tp的预测评分;$\overline {r\left( { \bullet , {t_p}} \right)} $$\overline {r\left( { \bullet , {t_q}} \right)} $分别为项目tptq的平均评分;riq为用户ui给物品tq的实际评分;Hp表示项目tp的邻居集合.

    表 2为例,使用基于新三角距离的k近邻算法预测用户u3t1的评分r31*流程如下:

    1) 分别提取项目t1t3t4的特征向量v1=[0 , 2 , 0 , 1 , 0 ],v3= [1 , 1 , 0 , 2 , 1 ]和v4= [1 , 2 , 0 , 1 , 1 ] .

    2) 使用新三角距离分别计算项目t1t3t4之间的相似度NTJ(v1v3t1t3)=0.11,NTJ(v1v4t1t4)=0.25.

    3) 用户u3t1的预测评分r31*=1.6+ 0.11×(4-1.6)+0.25×(5-1.6) 0.11+0.25 ≈4.69.

  • 算法总结了NTRFC的具体步骤. 步骤1读取并初始化评分数据;步骤2根据式(2)至式(4)为每一个项目提取多通道特征向量;步骤3初始化k个邻居,并计算与邻居的新三角距离,得到最远距离D;步骤4至步骤10根据式(5)至式(7)计算与其余项目之间的新三角距离,并得到最终k个最近邻居;步骤11根据式(8)计算预测评分.

    算法  NTRFC

    输入:用户-项目评分矩阵R

    输出:预测评分rip*

    step 1:初始化评分数据

    step 2:根据式(2)至式(4)提取特征向量

    step 3:初始化k个邻居,并计算新三角距离,得到最远距离D

    step 4:for其余有评分的项目do

    step 5:根据式(5)至式(7)计算新三角距离d

    step 6:if (d<D)

    step 7:用该项目替代最远距离项目

    step 8:D=d

    step 9:end if

    step10:end for

    step11:根据式(8)得到预测评分rip*

    算法时间复杂度分析如下:步骤1读取评分数据的时间为O(nm);步骤2提取多通道特征向量的时间为O(nm);步骤3初始化并计算与k个邻居的距离时间为O(kl);步骤4至步骤10获得最近k个邻居的时间为O(ml);步骤11预测评分的时间为O(k). 故整个模型的时间复杂度为O(nm).

3.   实验
  • 针对提出的算法进行两组对比实验,用来回答以下两个问题:1) 本文算法是否能提高推荐效率? 2) 本文提出的新三角距离能否保证较好的推荐准确度?

    问题一中采用特征向量或原始评分矩阵作为输入,使用本文提出的NTJ距离与另外9种距离计算项目间的相似度,利用k近邻算法进行协同过滤推荐,比较两者的运行时间从而判断何种输入下的推荐效率更高.

    问题二比较使用NTJ距离或其他9种距离的k近邻算法推荐准确度的高低.

  • 本文使用Amazon,Movielens943u,Movielens706u (https://grouplens.org/datasets/movielens/100k/)和Eachmovie (http://www.research.digital.com/SRC/eachmovie/)数据集. 表 4给出了它们的基本信息,前3个数据集采用的评分等级是1~5分,Eachmovie数据集采用的评分等级是0.2~1分,0分表示用户没有给项目评分. 在提取特征向量时,将Eachmovie数据集的评分等级扩展为1~5分,预测后按比例还原.

  • 通过两组实验Exp1和Exp2分别回答本节开始提出的两个问题.

    Exp1:比较输入分别为特征向量和原始评分矩阵的算法的运行时间. 使用本文提出的NTJ距离与另外9种距离计算项目间的相似度,并将其应用于k近邻算法. 记录不同输入下,使用同样距离公式的算法在4个数据集下的运行时间,运行时间越少,表示推荐效率越高.

    Exp2:在输入为特征向量时,分别采用本文提出的NTJ距离与另外9种距离进行推荐准确度对比实验.

    在本文使用的k近邻算法中,设置两个参数LRTR. LR表示用户是否喜欢某项目的门限值,设置为3. TR表示是否给用户推荐某项目的门限值,设置为3.5.

    采用交叉验证的方式进行实验,首先将原始评分随机分为5等份,从中选取其中4份作为训练集,1份作为测试集;其次,提取多通道特征向量,结合不同的距离预测评分;最后,通过6个指标来衡量预测评分与真实评分的差距. 上述步骤重复5次,每个指标下将得到5次不同的数据,将这些指标平均后做对比实验.

    表 5给出了6个准确度评价指标.

  • 在4个数据集上,分别使用特征向量和原始评分作为输入,采用本文提出的NTJ距离和其余9种已有距离计算项目相似度的k近邻算法的运行时间结果,如图 2,其中图 2(d)在Eachmovie上的运行时间进行了对数处理.

    以NTJ距离为例,对运行时间结果进行简要分析. 在Amazon数据集上,采用特征向量作为输入使得运行时间下降了39.33%,如图 2(a). 在Movielens943u数据集上,采用特征向量作为输入使得运行时间下降了48.79%,如图 2(b). 在Movielens706u数据集上,采用特征向量作为输入使得运行时间下降了40.67%,如图 2(c). 在Eachmovie数据集上,采用特征向量作为输入使得运行时间下降了52.54%,如图 2(d).

    综上所述,使用特征向量作为输入,能有效提高算法效率并大幅减少运行时间.

  • 不同距离在4个数据集上的准确度结果如表 6. 每一个子表包括5次实验的平均结果、标准差和平均性能排名,NTRFC为本文提出的算法,括号中的数字表示当前距离的性能排名. 若平均结果相同,则比较标准差,标准差越小,性能越好.

    在Amazon数据集上,本文提出的NTRFC算法在F1,Accuracy,Precision,MAE及RMSE评价指标上排名第一,如表 6(a)所示. 在Movielens943u数据集上,本文提出的NTRFC算法在F1,Accuracy,Precision及Recall评价指标上排名第一,如表 6(b)所示. 在Movielens706u数据集上,本文提出的NTRFC算法在F1,Precision及MAE评价指标上排名第一,如表 6(c)所示. 在Eachmovie数据集上,本文提出的NTRFC算法在F1,Accuracy及Recall评价指标上排名第一,如表 6(d)所示. 总体而言,在4个数据集上,NTRFC算法在个数准确度指标上占优.

    综上所述,本文提出的NTRFC算法能有效提高算法效率节省时间,并保持较好的推荐准确度.

4.   结论
  • 本文提出了基于多通道特征向量的新三角距离高效推荐算法. 多通道特征向量能降低算法的时间复杂度,新三角距离能更精准地描述特征向量之间的相似度. 在4个真实数据集上的实验结果表明,本文算法比已有算法在多个指标上表现得更好.

    下一步工作拟替换Jaccard系数,使用其他距离公式与三角距离结合,构建新的距离公式. 另外,考虑将新三角距离应用到可解释性推荐系统中,以期提升可解释性推荐系统的性能.

Figure (2)  Table (6) Reference (22)

Catalog

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return