工程科学学报 Chinese Journal of Engineering 用户属性感知的移动社交网络边缘缓存机制 杨静武佳李红霞 User-aware edge-caching mechanism for mobile social network YANG Jing.WU Jia,LI Hong-xia 引用本文: 杨静,武佳,李红霞.用户属性感知的移动社交网络边缘缓存机制.工程科学学报,2020,42(7):930-938.doi: 10.13374j.issn2095-9389.2019.07.12.001 YANG Jing.WU Jia,LI Hong-xia.User-aware edge-caching mechanism for mobile social network[J].Chinese Journal of Engineering,.2020,42(7):930-938.doi:10.13374.issn2095-9389.2019.07.12.001 在线阅读View online::htps:ldoi.org10.13374.issn2095-9389.2019.07.12.001 您可能感兴趣的其他文章 Articles you may be interested in 基于文本语料的涉恐事件实体属性抽取 Entity and attribute extraction of terrorism event based on text corpus 工程科学学报.2020.42(4:500 https:doi.org10.13374.issn2095-9389.2019.09.13.003 一种面向网络长文本的话题检测方法 A topic detection method for network long text 工程科学学报.2019,41(9:1208 https:doi.org/10.13374.issn2095-9389.2019.09.013 基于集成神经网络的剩余寿命预测 Remaining useful life prediction based on integrated neural network 工程科学学报.优先发表https:/doi.org/10.13374.issn2095-9389.2019.10.10.005 参与者信誉度感知的MCS数据收集机制 MCS data collection mechanism for participants'reputation awareness 工程科学学报.2017,3912:1922htps:oi.org10.13374.issn2095-9389.2017.12.020 卷积神经网络在矿区预测中的研究与应用 Research and application of convolutional neural network in mining area prediction 工程科学学报.优先发表https::/1doi.org/10.13374.issn2095-9389.2020.01.02.001 联合多种边缘检测算子的无参考质量评价算法 No-reference image quality assessment using joint multiple edge detection 工程科学学报.2018.40(8:996 https:1doi.org10.13374.issn2095-9389.2018.08.014
用户属性感知的移动社交网络边缘缓存机制 杨静 武佳 李红霞 User-aware edge-caching mechanism for mobile social network YANG Jing, WU Jia, LI Hong-xia 引用本文: 杨静, 武佳, 李红霞. 用户属性感知的移动社交网络边缘缓存机制[J]. 工程科学学报, 2020, 42(7): 930-938. doi: 10.13374/j.issn2095-9389.2019.07.12.001 YANG Jing, WU Jia, LI Hong-xia. User-aware edge-caching mechanism for mobile social network[J]. Chinese Journal of Engineering, 2020, 42(7): 930-938. doi: 10.13374/j.issn2095-9389.2019.07.12.001 在线阅读 View online: https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001 您可能感兴趣的其他文章 Articles you may be interested in 基于文本语料的涉恐事件实体属性抽取 Entity and attribute extraction of terrorism event based on text corpus 工程科学学报. 2020, 42(4): 500 https://doi.org/10.13374/j.issn2095-9389.2019.09.13.003 一种面向网络长文本的话题检测方法 A topic detection method for network long text 工程科学学报. 2019, 41(9): 1208 https://doi.org/10.13374/j.issn2095-9389.2019.09.013 基于集成神经网络的剩余寿命预测 Remaining useful life prediction based on integrated neural network 工程科学学报.优先发表 https://doi.org/10.13374/j.issn2095-9389.2019.10.10.005 参与者信誉度感知的MCS数据收集机制 MCS data collection mechanism for participants' reputation awareness 工程科学学报. 2017, 39(12): 1922 https://doi.org/10.13374/j.issn2095-9389.2017.12.020 卷积神经网络在矿区预测中的研究与应用 Research and application of convolutional neural network in mining area prediction 工程科学学报.优先发表 https://doi.org/10.13374/j.issn2095-9389.2020.01.02.001 联合多种边缘检测算子的无参考质量评价算法 No-reference image quality assessment using joint multiple edge detection 工程科学学报. 2018, 40(8): 996 https://doi.org/10.13374/j.issn2095-9389.2018.08.014
工程科学学报.第42卷.第7期:930-938.2020年7月 Chinese Journal of Engineering,Vol.42,No.7:930-938,July 2020 https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001;http://cje.ustb.edu.cn 用户属性感知的移动社交网络边缘缓存机制 杨 静12,3,武佳2,)区,李红霞 1)重庆邮电大学通信与信息工程学院,重庆4000652)重庆高校市级光通信与网络重点实验室,重庆4000653)泛在感知与互联重庆市 重点实验室,重庆4000654)中国联合网络通信有限公司重庆市分公司,重庆401123 ☒通信作者,E-mail:1309431264@qq.com 摘要针对数据流量爆发式增长所引发的网络拥塞、用户体验质量恶化等问题,提出一种用户属性感知的边缘缓存机制. 首先,利用隐语义模型获知用户对各类内容的兴趣度,进而估计本地流行内容,然后微基站将预测的本地流行内容协作缓存, 并根据用户偏好的变化,将之实时更新.为进一步减少传输时延,根据用户偏好构建兴趣社区,在兴趣社区中基于用户的缓 存意愿和缓存能力,选择合适的缓存用户缓存目标内容并分享给普通用户.结果表明,所提机制性能优于随机缓存及最流行 内容缓存算法,在提高缓存命中率、降低传输时延的同时,增强了用户体验质量 关键词移动社交网络:边缘缓存:流行度预测:隐语义模型:社会属性 分类号TN929.5 User-aware edge-caching mechanism for mobile social network YANG Jing22,WU Jia,LI Hong-xid) 1)School of Communication and Information Engineering,Chongqing University of Posts and Telecommunications,Chongqing 400065,China 2)Chongqing Key Laboratory of Optical Communication and Networks,Chongqing 400065,China 3)Chongqing Key Laboratory of Ubiquitous Sensing and Networking.Chongqing 400065.China 4)Chongqing Branch of China Unicom,Chongqing 401123,China Corresponding author,E-mail:1309431264@qq.com ABSTRACT With the rapid growth in the number of intelligent terminal devices and wireless multimedia applications,mobile communication traffic has exploded.The latest report from Cisco Visual Networking Index(CVNI)indicates that by 2022,global mobile data traffic will have grown to three times that in 2017,which will exert tremendous pressure on the backhaul link.One key approach to solve this problem is to cache popular content at the edges(base stations and mobile devices)and then bring the requested content from the edges close to the user,instead of obtaining the requested content from the content server through backhaul networks.Thus,by obtaining the required content of mobile users locally,edge caching can effectively improve network performance and reduce the pressure on the backhaul link.However,owing to the limited storage capacity of the edge nodes and the diversification of user requirements,the edge nodes can neither cache all the content in the content server nor randomly cache the content.To solve these problems,an edge-caching mechanism based on user-awareness was proposed.First,using an implicit semantic model,we predicted popular content in a macro cell in terms of the users'interests.Small base stations within identical macro cells cache data cooperatively, which update local popular content based on the dynamic content preference of users.To further reduce the delay in content delivery,we helped users to ascertain their top communities of interest based on their content preferences.At the same time,the most appropriate user equipment(UE)is selected considering the caching willingness and caching ability to cache data for other UEs in identical communities of interest.Results show that the proposed mechanism outperforms the random cache approach and the most popular content-caching 收稿日期:2019-07-12 基金项目:国家自然科学基金资助项目(61771082.61871062:重庆市高校创新团队建设计划资助项目(CXTDX201601020)
用户属性感知的移动社交网络边缘缓存机制 杨 静1,2,3),武 佳1,2,3) 苣,李红霞4) 1) 重庆邮电大学通信与信息工程学院,重庆 400065 2) 重庆高校市级光通信与网络重点实验室,重庆 400065 3) 泛在感知与互联重庆市 重点实验室,重庆 400065 4) 中国联合网络通信有限公司重庆市分公司,重庆 401123 苣通信作者,E-mail: 1309431264@qq.com 摘 要 针对数据流量爆发式增长所引发的网络拥塞、用户体验质量恶化等问题,提出一种用户属性感知的边缘缓存机制. 首先,利用隐语义模型获知用户对各类内容的兴趣度,进而估计本地流行内容,然后微基站将预测的本地流行内容协作缓存, 并根据用户偏好的变化,将之实时更新. 为进一步减少传输时延,根据用户偏好构建兴趣社区,在兴趣社区中基于用户的缓 存意愿和缓存能力,选择合适的缓存用户缓存目标内容并分享给普通用户. 结果表明,所提机制性能优于随机缓存及最流行 内容缓存算法,在提高缓存命中率、降低传输时延的同时,增强了用户体验质量. 关键词 移动社交网络;边缘缓存;流行度预测;隐语义模型;社会属性 分类号 TN929.5 User-aware edge-caching mechanism for mobile social network YANG Jing1,2,3) ,WU Jia1,2,3) 苣 ,LI Hong-xia4) 1) School of Communication and Information Engineering, Chongqing University of Posts and Telecommunications, Chongqing 400065, China 2) Chongqing Key Laboratory of Optical Communication and Networks, Chongqing 400065, China 3) Chongqing Key Laboratory of Ubiquitous Sensing and Networking, Chongqing 400065, China 4) Chongqing Branch of China Unicom, Chongqing 401123, China 苣 Corresponding author, E-mail: 1309431264@qq.com ABSTRACT With the rapid growth in the number of intelligent terminal devices and wireless multimedia applications, mobile communication traffic has exploded. The latest report from Cisco Visual Networking Index (CVNI) indicates that by 2022, global mobile data traffic will have grown to three times that in 2017, which will exert tremendous pressure on the backhaul link. One key approach to solve this problem is to cache popular content at the edges (base stations and mobile devices) and then bring the requested content from the edges close to the user, instead of obtaining the requested content from the content server through backhaul networks. Thus, by obtaining the required content of mobile users locally, edge caching can effectively improve network performance and reduce the pressure on the backhaul link. However, owing to the limited storage capacity of the edge nodes and the diversification of user requirements, the edge nodes can neither cache all the content in the content server nor randomly cache the content. To solve these problems, an edge-caching mechanism based on user-awareness was proposed. First, using an implicit semantic model, we predicted popular content in a macro cell in terms of the users’ interests. Small base stations within identical macro cells cache data cooperatively, which update local popular content based on the dynamic content preference of users. To further reduce the delay in content delivery, we helped users to ascertain their top communities of interest based on their content preferences. At the same time, the most appropriate user equipment (UE) is selected considering the caching willingness and caching ability to cache data for other UEs in identical communities of interest. Results show that the proposed mechanism outperforms the random cache approach and the most popular content-caching 收稿日期: 2019−07−12 基金项目: 国家自然科学基金资助项目 (61771082,61871062);重庆市高校创新团队建设计划资助项目 (CXTDX201601020) 工程科学学报,第 42 卷,第 7 期:930−938,2020 年 7 月 Chinese Journal of Engineering, Vol. 42, No. 7: 930−938, July 2020 https://doi.org/10.13374/j.issn2095-9389.2019.07.12.001; http://cje.ustb.edu.cn
杨静等:用户属性感知的移动社交网络边缘缓存机制 931 algorithm;it improves the cache hit rate and reduces the transmission delay while enhancing the quality of user experience. KEY WORDS mobile social network;edge cache;popularity prediction:implicit semantic model:social attribute 随着智能终端设备数量以及无线多媒体应用 容的重传;文献[10]提出一种缓存用户选择方案, 的快速增长,使得移动通信流量爆发式增长,根据 基于用户设备的剩余功率以及内容的最低传输功 美国思科公司的思科视觉网络指数预测,到 率来选择分数高的用户作为缓存用户.然而,文 2022年全球移动数据流量将增长至2017年的 献[8]~[10]主要聚焦在缓存用户的选择问题,没 3倍四,这将给回程链路造成巨大压力.移动社交 有对内容流行度进行预测.目前,很少有文献将内 网络是一个承载在无线通信网络上的社交网络, 容流行度的预测与缓存用户的选择结合在一起 不仅具有无线通信网络中的移动特性也具有社交 为此,本文提出一种用户属性感知的边缘缓存 网络的社会特性-习基于其移动与社会特性,用户 User-aware edge caching mechanism,UAEC), 可通过相遇机会进行内容分享,从而减少从内容 为提高缓存命中率,减少传输时延,首先,考虑用 服务器中获取内容的次数,减轻回程链路压力,同 户的偏好,预测出本地流行内容,并通过微基站将 时,在移动社交网络中,微基站通常被部署在靠近 之协作缓存,同时根据用户偏好的变化将之实时 用户终端,具有较强的储存和计算能力,相比于距 更新,然后,为进一步减少传输时延,基于用户偏 离较远的云,将内容缓存在微基站可减少内容传 好构建兴趣社区,在每个兴趣社区中,考虑用户的 输延迟,提高用户体验质量 缓存意愿及缓存能力选择合适的缓存用户缓存目 然而,由于边缘节点(终端用户、微基站)的存 标内容并分享给普通用户 储容量有限以及用户需求的多样化,使得边缘节 1系统模型 点既不能缓存内容服务器中所有的内容,也不能 在存储容量的限制下,随机缓存内容,因此缓存内 考虑一个宏基站小区内的边缘缓存问题,如 容的选择对提高边缘缓存性能至关重要,同时,用 图1所示,该模型由内容服务器、宏基站、微基站 户的移动性是移动社交网络中实现内容分享的重 和终端用户组成.内容服务器负责存储用户所需 要特性,但也可能因为移动性使缓存用户和请求 的所有内容F=f,f2,…,fw,并假设每个内容的 用户不在终端直接通信技术(D2D)通信范围内, 大小相同为山,宏基站负责管理整个小区内的缓存 最终导致内容分享失败,因此,为提高缓存命中 资源、计算资源和通信资源,为充分利用缓存资 率、减少传输时延,选择合适的缓存用户对提高边 源,减少缓存冗余,微基站负责将本地流行内容协 缘缓存性能至关重要 作缓存,并通过蜂窝链路发送到内容请求者,终端 综上所述,缓存内容选择以及缓存用户选择 用户分为缓存用户和普通用户,普通用户可从缓 是提高网络性能、保证用户体验质量的关键问题. 存用户中获取所需内容,考虑到用户的自私性可 在文献中,这两个问题通常被独立的研究.对于缓 能不愿意缓存其不感兴趣的内容,为此将具有相 存内容选择的问题,通常是选择流行的内容,为此 似内容请求偏好的用户划分为同一兴趣社区,如 需要对内容流行度进行预测,文献[⑤]使用聚类分 图1所示,具有相同颜色的终端用户处于同一兴 析将内容划分为不同类型,利用自回归积分移动 趣社区,缓存用户只需缓存所处兴趣社区请求概 平均模型预测不同类型的内容流行度;文献[6]使 率最高且自己感兴趣的内容集,当普通用户请求 用印度自助餐过程来分析内容选择问题,进而预 内容时,可通过D2D的方式进行内容分享 测内容流行度;文献[)基于用户的上下文,使用 假设用户与用户之间的平均传输时延为Ta, 回声状态网络来预测用户的内容请求分布,进而 用户到微基站的平均传输时延为T2,微基站到内 预测出内容流行度.文献[5]~[7刀虽然在一定程度 容服务器的平均传输时延为T3.则用户获取内容 上提升了网络性能,但都没有考虑缓存用户的选 的平均传输时延T为: 择问题.对于缓存用户选择的问题,文献[8]提出 T1=mTa+nTo2+(n-m-n2)Tas (1) 一种基于用户重要性的缓存策略,基于用户的物 理属性与社会行为选择排名较高的用户来缓存内 其中,Ta1<T2<Ta,n1表示从缓存用户获取内容 容;文献[9]提出一种分布式缓存用户选择方案, 的数量,2表示从微基站中获取内容的数量,n表示 基于概率论模型来选择高速缓存用户,以防止内 用户获取内容的总数量
algorithm; it improves the cache hit rate and reduces the transmission delay while enhancing the quality of user experience. KEY WORDS mobile social network;edge cache;popularity prediction;implicit semantic model;social attribute 随着智能终端设备数量以及无线多媒体应用 的快速增长,使得移动通信流量爆发式增长,根据 美 国 思 科 公 司 的 思 科 视 觉 网 络 指 数 预 测 , 到 2022 年全球移动数据流量将增长 至 2017 年 的 3 倍[1] ,这将给回程链路造成巨大压力. 移动社交 网络是一个承载在无线通信网络上的社交网络, 不仅具有无线通信网络中的移动特性也具有社交 网络的社会特性[2−3] ,基于其移动与社会特性,用户 可通过相遇机会进行内容分享,从而减少从内容 服务器中获取内容的次数,减轻回程链路压力,同 时,在移动社交网络中,微基站通常被部署在靠近 用户终端,具有较强的储存和计算能力,相比于距 离较远的云,将内容缓存在微基站可减少内容传 输延迟,提高用户体验质量. 然而,由于边缘节点(终端用户、微基站)的存 储容量有限以及用户需求的多样化[4] ,使得边缘节 点既不能缓存内容服务器中所有的内容,也不能 在存储容量的限制下,随机缓存内容,因此缓存内 容的选择对提高边缘缓存性能至关重要,同时,用 户的移动性是移动社交网络中实现内容分享的重 要特性,但也可能因为移动性使缓存用户和请求 用户不在终端直接通信技术(D2D)通信范围内, 最终导致内容分享失败,因此,为提高缓存命中 率、减少传输时延,选择合适的缓存用户对提高边 缘缓存性能至关重要. 综上所述,缓存内容选择以及缓存用户选择 是提高网络性能、保证用户体验质量的关键问题. 在文献中,这两个问题通常被独立的研究. 对于缓 存内容选择的问题,通常是选择流行的内容,为此 需要对内容流行度进行预测,文献 [5] 使用聚类分 析将内容划分为不同类型,利用自回归积分移动 平均模型预测不同类型的内容流行度;文献 [6] 使 用印度自助餐过程来分析内容选择问题,进而预 测内容流行度;文献 [7] 基于用户的上下文,使用 回声状态网络来预测用户的内容请求分布,进而 预测出内容流行度. 文献 [5]~[7] 虽然在一定程度 上提升了网络性能,但都没有考虑缓存用户的选 择问题. 对于缓存用户选择的问题,文献 [8] 提出 一种基于用户重要性的缓存策略,基于用户的物 理属性与社会行为选择排名较高的用户来缓存内 容;文献 [9] 提出一种分布式缓存用户选择方案, 基于概率论模型来选择高速缓存用户,以防止内 容的重传;文献 [10] 提出一种缓存用户选择方案, 基于用户设备的剩余功率以及内容的最低传输功 率来选择分数高的用户作为缓存用户. 然而,文 献 [8]~[10] 主要聚焦在缓存用户的选择问题,没 有对内容流行度进行预测. 目前,很少有文献将内 容流行度的预测与缓存用户的选择结合在一起. 为此,本文提出一种用户属性感知的边缘缓存 机制(User-aware edge caching mechanism, UAEC) , 为提高缓存命中率,减少传输时延,首先,考虑用 户的偏好,预测出本地流行内容,并通过微基站将 之协作缓存,同时根据用户偏好的变化将之实时 更新,然后,为进一步减少传输时延,基于用户偏 好构建兴趣社区,在每个兴趣社区中,考虑用户的 缓存意愿及缓存能力选择合适的缓存用户缓存目 标内容并分享给普通用户. 1 系统模型 F = {f1, f2,··· , fN} 考虑一个宏基站小区内的边缘缓存问题,如 图 1 所示,该模型由内容服务器、宏基站、微基站 和终端用户组成. 内容服务器负责存储用户所需 的所有内容 ,并假设每个内容的 大小相同为 d,宏基站负责管理整个小区内的缓存 资源、计算资源和通信资源,为充分利用缓存资 源,减少缓存冗余,微基站负责将本地流行内容协 作缓存,并通过蜂窝链路发送到内容请求者,终端 用户分为缓存用户和普通用户,普通用户可从缓 存用户中获取所需内容,考虑到用户的自私性可 能不愿意缓存其不感兴趣的内容,为此将具有相 似内容请求偏好的用户划分为同一兴趣社区,如 图 1 所示,具有相同颜色的终端用户处于同一兴 趣社区,缓存用户只需缓存所处兴趣社区请求概 率最高且自己感兴趣的内容集,当普通用户请求 内容时,可通过 D2D 的方式进行内容分享. Td1 Td2 Td3 T1 假设用户与用户之间的平均传输时延为 , 用户到微基站的平均传输时延为 ,微基站到内 容服务器的平均传输时延为 . 则用户获取内容 的平均传输时延 为: T1 = n1Td1 +n2Td2 +(n−n1 −n2)Td3 n (1) Td1 < Td2 < Td3 n1 n2 n 其中, , 表示从缓存用户获取内容 的数量, 表示从微基站中获取内容的数量, 表示 用户获取内容的总数量. 杨 静等: 用户属性感知的移动社交网络边缘缓存机制 · 931 ·
932 工程科学学报,第42卷,第7期 Interest Interest Interest community I community 2 Content server Femto eNB Femto eNB Cache user 图1用户属性感知的边缘缓存模型 Fig.1 User-aware edge-caching model 为减少传输时延,提高用户体验质量,从公式 度,进而预测出用户对所有内容的请求概率.不同 (1)可推出,需要尽可能将用户所需内容缓存,为 于传统的人工分类,隐语义模型是基于用户的行 此需要在有限的缓存容量下,提高微基站与缓存 为自动聚类,因此避免了人工分类的主观性,提高 用户的缓存命中率.为提高缓存命中率,需要进行 了预测精度 本地流行内容预测,以便将用户请求概率最高的 在内容服务器处获取一段时间内用户的内容 内容集缓存,与此同时,考虑到D2D的传输距离以 评分矩阵R,其矩阵值ru表示用户u对内容f的评 及用户的自私性,需要研究缓存用户的选择及其 分,r所∈0,5】.通过用户对内容的评分可推出用户 内容的缓存问题以保证用户所需内容的成功缓存 对内容的请求概率,由于用户不可能对内容服务 与传递.因此本地流行内容与终端用户缓存策略 器中所有内容都评过分,因此矩阵是高度稀疏 对提高缓存命中率、减少传输时延、提高用户体 的.利用隐语义模型对矩阵进行填充,可预测出用 验质量至关重要 户对所有内容的评分,最终预测出用户对所有内 容的请求概率.假设内容服务器中内容的隐含特 2本地流行内容预测 征有类,基于内容在k类隐含特征中所占的权重, 在传统的无线网络中,通常是各基站独立地 以及用户对k类隐含特征的兴趣度,可预测出用户 缓存最流行的内容,但由于用户的兴趣不同,同一 对内容的评分u: 内容对不同用户有着不同的兴趣度,因此缓存最 ruf≈iw听=PuQf= Pkqk元 (2) 流行的内容不仅不能满足所有用户的偏好,还会 k=1 存在缓存冗余,浪费缓存资源的现象.为满足用户 其中,表示预测的用户u对内容f的评分,P是 偏好,提高缓存命中率,减少缓存冗余,本文从用 用户-类矢量,矢量值Pt表示用户“对隐含特征 户的角度出发,预测出本地流行内容,并将之协作 k的兴趣度.Q是类-内容矢量,矢量值q张后表示内 缓存.本地流行内容预测分为内容请求概率预 容在隐含特征k中的权重 测、协作缓存、缓存内容更新 为预测用户对所有内容的评分,需求用 2.1内容请求概率预测 户一类矩阵P={PTP,…,PT和类-内容矩阵 本文使用隐语义模型来预测内容请求概率, Q={Q1,Q2,…,Q}中的参数值,可通过最小化真实 基于用户的偏好,通过隐含特征将用户的兴趣和 值与预测值之间的误差,即最小化损失函数来求 内容联系起来,从而获知用户对每类内容的兴趣 参数值.损失函数如下:
为减少传输时延,提高用户体验质量,从公式 (1)可推出,需要尽可能将用户所需内容缓存,为 此需要在有限的缓存容量下,提高微基站与缓存 用户的缓存命中率. 为提高缓存命中率,需要进行 本地流行内容预测,以便将用户请求概率最高的 内容集缓存,与此同时,考虑到 D2D 的传输距离以 及用户的自私性,需要研究缓存用户的选择及其 内容的缓存问题以保证用户所需内容的成功缓存 与传递. 因此本地流行内容与终端用户缓存策略 对提高缓存命中率、减少传输时延、提高用户体 验质量至关重要. 2 本地流行内容预测 在传统的无线网络中,通常是各基站独立地 缓存最流行的内容,但由于用户的兴趣不同,同一 内容对不同用户有着不同的兴趣度,因此缓存最 流行的内容不仅不能满足所有用户的偏好,还会 存在缓存冗余,浪费缓存资源的现象. 为满足用户 偏好,提高缓存命中率,减少缓存冗余,本文从用 户的角度出发,预测出本地流行内容,并将之协作 缓存. 本地流行内容预测分为内容请求概率预 测、协作缓存、缓存内容更新. 2.1 内容请求概率预测 本文使用隐语义模型来预测内容请求概率, 基于用户的偏好,通过隐含特征将用户的兴趣和 内容联系起来,从而获知用户对每类内容的兴趣 度,进而预测出用户对所有内容的请求概率. 不同 于传统的人工分类,隐语义模型是基于用户的行 为自动聚类,因此避免了人工分类的主观性,提高 了预测精度. R ru fi u fi ru fi ∈ [0,5] R k k k rˆu fi 在内容服务器处获取一段时间内用户的内容 评分矩阵 ,其矩阵值 表示用户 对内容 的评 分, . 通过用户对内容的评分可推出用户 对内容的请求概率,由于用户不可能对内容服务 器中所有内容都评过分,因此矩阵 是高度稀疏 的. 利用隐语义模型对矩阵进行填充,可预测出用 户对所有内容的评分,最终预测出用户对所有内 容的请求概率. 假设内容服务器中内容的隐含特 征有 类,基于内容在 类隐含特征中所占的权重, 以及用户对 类隐含特征的兴趣度,可预测出用户 对内容的评分 : ru fi ≈ rˆu fi = PuQfi = ∑ k k=1 pukqk fi (2) rˆu fi fi Pu puk k Qfi qk fi fi k 其中, 表示预测的用户 u 对内容 的评分, 是 用户−类矢量,矢量值 表示用户 u 对隐含特征 的兴趣度. 是类−内容矢量,矢量值 表示内 容 在隐含特征 中的权重. P = {P T 1 , P T 2 ,··· , P T u } T Q = {Q1,Q2,··· ,Qfi } 为 预 测 用 户 对 所 有 内 容 的 评 分 , 需 求 用 户 −类 矩 阵 和 类 −内 容 矩 阵 中的参数值,可通过最小化真实 值与预测值之间的误差,即最小化损失函数来求 参数值. 损失函数如下: Macro eNB Femto eNB Femto eNB Cache user Cache user Interest community 1 Interest community 2 Interest community K ... Cache user Internet Content server 图 1 用户属性感知的边缘缓存模型 Fig.1 User-aware edge-caching model · 932 · 工程科学学报,第 42 卷,第 7 期
杨静等:用户属性感知的移动社交网络边缘缓存机制 933 每个微基站小区内有ms,个终端用户,且满足 m=ms1+ms2+…+ms,对微基站S,小区内所有用 (u,f)ER (u.f)EK PP +alen 户未请求过的前n个内容求交集F1nF2 .0Fms,= (3) bbg…,b小其中b表示内容在微基站S: PP+2是正则化项,为了防止过拟合. 中将请求的次数,n表示微基站覆盖范围内用户 λ是正则化系数,为了控制正则化强弱. 请求的内容总数,在微基站缓存容量的限制下 利用随机梯度下降法来最小化损失函数,随 机梯度下降法是通过不断判断和选择当前目标下 户<其中表不在每个领整骑中能 缓存的最大内容数量,得到微基站小区内请求数 最优的路径,从而在最短路径下达到最优结果,因 此,可通过对pPk、qk两个参数求偏导,不断判断和 量最多的内容集Fs:={f,,…,f,满足 选择损失函数最快的下降方向,Pk和qk对应的偏 b>bg>…>b并将之缓存,在宏基站中储 导数求解如下: 存了所管理微基站的缓存列表,宏基站协调微基 站进行内容缓存,使之满足每个微基站内缓存的 qkfi+2Apuk 内容无重复Fs,nFs2n…nFs,=0,使得缓存资源 (4) 得到充分利用,并提高了缓存命中率.综合所有微 基站缓存的内容即为本地流行内容Fic= {fs1,Fs2…,Fs}. 不断修改Pk,qk的值,使损失函数的值越来 2.3缓存内容更新 越小,直到收敛为止.最终使得矩阵P和矩阵Q的 考虑到用户的偏好可能随时间而不断变化, 乘积越逼近矩阵R迭代更新公式如下: 以及预测结果不完善造成某些请求概率较高的内 容未被缓存的情况,因此需要及时更新缓存的本 p'uk Puk+a 地流行内容 内容的缓存可分为主动缓存和被动缓存.主 qk后=qk Duk-Aqkf 动缓存是指通过预测内容的流行度,提前将流行 5) 的内容缓存,被动缓存是指根据内容的历史访问 式中,α是学习率,决定迭代下降的速率,取值范围 情况决定该内容是否被缓存.预测的内容流行度 为[0,1] 与实际内容流行度误差较小时,主动缓存可大大 求得用户对内容的评分矩阵后,将分数归一 提高缓存效益,但若误差较大,缓存性能将不如被 化.即可得用户u对f的请求概率prou,=iu6/5 动缓存,被动缓存的缓存效益稳定,但存在较大的 2.2协作缓存 提升空间.为提高缓存性能,结合主动缓存与被动 宏基站较微基站有更大的覆盖区域,可以服务 缓存的优点,本文将微基站分为两个缓存区:G缓 更多用户,但存在信号覆盖的盲区和弱区,微基站通 存区和C2缓存区,两缓存区的总存储容量为csBs, 常部署在靠近用户终端,虽然覆盖范围小,但适合小 两缓存区的大小可自适应调整,在C区进行主动 范围精确的覆盖可以弥补宏基站覆盖的不足,通 缓存,其内容缓存时间不超过一个有限时间Tcache, 过宏基站的协调将内容缓存在微基站可使用户就 在2区进行被动缓存,其内容缓存时间超过一个 近获取缓存资源,减少时延,提高用户体验质量, 有限时间Tcache.内容缓存到微基站后,微基站 但由于微基站的缓存容量有限,为充分利用缓存 实时记录每个用户的内容请求,并在一个时间段 资源,减少缓存冗余,提高缓存内容多样性,增加 t(t<Tcache)内计算内容的实际流行度,若在一个时 缓存命中率,需要宏基站小区内的微基站协作缓 间段1内,某个未缓存的内容f实际流行度大于缓 存.从2.1节可得到宏基站小区内的终端用户对所 存区的最低实际流行度,则需要及时更新本地流 有内容的请求概率prou,,将请求概率按降序排列, 行内容,将实际流行度最低的内容替换为内容, 得到用户未请求过的前n个内容F:={ff乃,…,f, 每隔一个有限的时间范围Teache,删除实际流行度 假设宏基站小区内有m个终端用户,s={S1,S2,…,S} 低的内容,并将c1区和c2区实际流行度最高的内 个微基站,每个微基站的缓存容量相同且为csBS, 容集移动到℃2区,然后再重新预测用户的内容请
e 2 u fi = ∑ (u, fi )∈R (ru fi −rˆu fi ) 2 = ∑ (u, fi )∈R ru fi − ∑ k k=1 pukqk fi 2 + λ∥Pu∥ 2 +λ Qfi 2 (3) λ∥Pu∥ 2 +λ Qfi 2 λ 是正则化项,为了防止过拟合. 是正则化系数,为了控制正则化强弱. puk qk fi puk qk fi 利用随机梯度下降法来最小化损失函数,随 机梯度下降法是通过不断判断和选择当前目标下 最优的路径,从而在最短路径下达到最优结果,因 此,可通过对 、 两个参数求偏导,不断判断和 选择损失函数最快的下降方向, 和 对应的偏 导数求解如下: ∂ ∂puk e 2 u fi = −2 ru fi − ∑ k k=1 pukqk fi qk fi +2λpuk ∂ ∂qk fi e 2 u fi = −2 ru fi − ∑ k k=1 pukqk fi puk +2λqk fi (4) puk qk fi P Q R 不断修改 , 的值,使损失函数的值越来 越小,直到收敛为止. 最终使得矩阵 和矩阵 的 乘积越逼近矩阵 . 迭代更新公式如下: p ′ uk = puk +α ru fi − ∑ k k=1 pukqk fi qk fi −λpuk q ′ k fi = qk fi +α ru fi − ∑ k k=1 pukqk fi puk −λqk fi (5) 式中,α是学习率,决定迭代下降的速率,取值范围 为 [0,1]. Rˆ u fi prou, fi = rˆu fi /5 求得用户对内容的评分矩阵 后,将分数归一 化,即可得用户 对 的请求概率 . 2.2 协作缓存 prou, fi i Fi = {f i 1 , f i 2 ,··· , f i n } s = {S 1,S 2,··· ,S s} cSBS 宏基站较微基站有更大的覆盖区域,可以服务 更多用户,但存在信号覆盖的盲区和弱区,微基站通 常部署在靠近用户终端,虽然覆盖范围小,但适合小 范围精确的覆盖可以弥补宏基站覆盖的不足,通 过宏基站的协调将内容缓存在微基站可使用户就 近获取缓存资源,减少时延,提高用户体验质量, 但由于微基站的缓存容量有限,为充分利用缓存 资源,减少缓存冗余,提高缓存内容多样性,增加 缓存命中率,需要宏基站小区内的微基站协作缓 存. 从 2.1 节可得到宏基站小区内的终端用户对所 有内容的请求概率 ,将请求概率按降序排列, 得到用户 未请求过的前 n 个内容 , 假设宏基站小区内有m 个终端用户, 个微基站,每个微基站的缓存容量相同且为 , mS i m = mS 1 +mS 2 +···+mS s F1 ∩ F2 ∩ ··· ∩ FmS i = {b f S i 1 ,b f S i 2 ,··· ,b f S i ni } b f S i 1 f1 S i ni d · ∑s i=1 ∑a j=1 f S i j ⩽ s· cSBS a FS i = {f S i 1 , f S i 2 ,··· , f S i a } b f S i 1 > b f S i 2 > ··· > b f S i ni FS 1 ∩ FS 2 ∩ ··· ∩ FS s = ∅ Flocal = {FS 1 ,FS 2 ,··· ,FS s } 每个微基站小区内有 个终端用户 ,且满足 . 对微基站 Si 小区内所有用 户未请求过的前 n 个内容求交集 ,其中 表示内容 在微基站 中将请求的次数, 表示微基站覆盖范围内用户 请求的内容总数,在微基站缓存容量的限制下 ,其中 表示在每个微基站中能 缓存的最大内容数量,得到微基站小区内请求数 量 最 多 的 内 容 集 , 满 足 ,并将之缓存,在宏基站中储 存了所管理微基站的缓存列表,宏基站协调微基 站进行内容缓存,使之满足每个微基站内缓存的 内容无重复 ,使得缓存资源 得到充分利用,并提高了缓存命中率. 综合所有微 基 站 缓 存 的 内 容 即 为 本 地 流 行 内 容 . 2.3 缓存内容更新 考虑到用户的偏好可能随时间而不断变化, 以及预测结果不完善造成某些请求概率较高的内 容未被缓存的情况,因此需要及时更新缓存的本 地流行内容. cSBS Tcache Tcache t(t < Tcache) fi fi Tcache 内容的缓存可分为主动缓存和被动缓存. 主 动缓存是指通过预测内容的流行度,提前将流行 的内容缓存,被动缓存是指根据内容的历史访问 情况决定该内容是否被缓存. 预测的内容流行度 与实际内容流行度误差较小时,主动缓存可大大 提高缓存效益,但若误差较大,缓存性能将不如被 动缓存,被动缓存的缓存效益稳定,但存在较大的 提升空间. 为提高缓存性能,结合主动缓存与被动 缓存的优点,本文将微基站分为两个缓存区:c1 缓 存区和 c2 缓存区,两缓存区的总存储容量为 , 两缓存区的大小可自适应调整. 在 c1 区进行主动 缓存,其内容缓存时间不超过一个有限时间 , 在 c2 区进行被动缓存,其内容缓存时间超过一个 有限时间 . 内容缓存到微基站后 ,微基站 实时记录每个用户的内容请求,并在一个时间段 内计算内容的实际流行度,若在一个时 间段 t 内,某个未缓存的内容 实际流行度大于缓 存区的最低实际流行度,则需要及时更新本地流 行内容,将实际流行度最低的内容替换为内容 , 每隔一个有限的时间范围 ,删除实际流行度 低的内容,并将 c1 区和 c2 区实际流行度最高的内 容集移动到 c2 区,然后再重新预测用户的内容请 杨 静等: 用户属性感知的移动社交网络边缘缓存机制 · 933 ·