Joint Upload-Download Transmission Scheme for Low-Latency Mobile Live Video Streaming

会议信息: Published in: 2023 IEEE/ACM 31st International Symposium on Quality of Service (IWQoS)

1 背景

移动视频流量和用户需求的快速增长,导致多个视频流客户端共享一个瓶颈链路的可能性增大。 在移动视频流应用中,波动网络条件和用户的快速移动(移动用户是本文章考虑的重点)会对多用户的体验产生很大影响;在5G网络中,这一问题变得更加严重。 QoE和QoE公平性是评估客户端性能的两个关键指标,然而现有的多个客户端平均分配带宽并不能保证QoE公平性。 图1显示了客户端在时间T匀速线性运动下不同速度下的视图质量。与低速客户相比,高速客户的最小QoE平均降低低77.64%(按QoE归一化约10点)。

2 挑战

如果考虑用户的移动,如何给用户的移动影响进行建模,使之参与到用户QoE和QoE公平性的优化过程; 实现最大(或至少确保可接受的)QoE,同时在共享带宽链路中保证视频流应用的用户之间资源分配方面的公平性; “满足对缓冲区敏感的客户端由于其快速移动而产生的缓冲区需求”,且不影响其他用户的带宽。

3贡献

提出了一种用于具有多个移动客户端共享瓶颈链路的基于QoE公平自适应端到端方案VSiM,且对异构无线网络环境的适应性; 实现一种通过合并客户端移动信息和QoE相关信息进行动态公平的带宽分配方法; 提出一种可以快速填充客户端缓冲区的避免重缓冲服务器推送算法。

4 系统建模

4.1 系统架构

客户端:ABR控制器、传感器 服务器:轨迹预测、效用计算、带宽分配、参数更新、服务器推送 在客户端,我们利用ABR控制器➊收集请求块的比特率和Dash播放器的缓冲状态。我们进一步通过客户移动设备中的传感器➋收集客户移动profile信息。收集到的状态信息➌将被分组、加密,并与HTTP Request ➍一起发送,以便以比特率bi下载数据块ck到服务器。 在服务端,对于每一个到达的客户端请求,服务端解密状态信息,并且轨迹预测➎使用移动信息和基站➏的拓扑信息来计算客户端的轨迹。一旦轨迹已知,服务器就会识别客户机连接的BSes和相关参数,如交接延迟handover latency、停留时间和可能影响移动客户机QoE的无连接区域。我们假设服务器知道它所需的BSes的信息。利用这些值和来自客户端的DASH播放器的信息(例如,缓冲区级别和比特率级别),效用计算模块➐应用效用函数来计算每个客户端的最佳权重wi,并将它们转移到带宽分配模块➑ 。 由于服务器具有所有客户机的全局视图,因此它通过考虑客户机的移动性和qoe相关信息,在参与的客户机之间有效地计算和分配可用带宽。当BSes的拓扑结构发生重大变化时,权重wi在一个周期t内更新。此外,t和用于量化每个因素(例如,比特率,重缓冲和平滑度)对带宽分配贡献的效用函数参数的最优值,如β和λ,由参数更新策略➒产生。 同时,基于这些值和信息,服务器还可以识别由于在BS中停留时间较短、切换延迟或无连接区域而更有可能经历增加的重新缓冲的客户端。为了提高这些客户端的QoE,我们的系统会尝试填满他们的玩家缓冲区来增加游戏时间,从而减少重新缓冲的影响。服务器推送模块➓识别这些潜在客户端,确定这些客户端的优先级,并向它们推送额外的块。 一旦为每个客户端分配了最优带宽,并且服务器推送给出了最优推送策略,准备好的数据块就会使用QUIC传输协议在分配的带宽上传输到客户端。为了保证所有客户端的QoE公平性,提高VSiM的效率,只在需要提高对缓冲敏感的客户端的QoE时才分配推送带宽。

4.2带宽分配

4.2.1效用计算

4.2.2带宽分配模型

存在一个最优分配r*,使所有参与的客户端U®相等。

4.3服务器推送

设计了一种新的服务器推送算法,称为慢降级快速恢复(SDFR) 客户端播放器逻辑上维护两个缓冲区,并会给ABR算法传递伪比特率信息 服务器端接收到客户端消息后,首先根据消息中的缓冲状态和移动情况预测用户的轨迹。然后,它根据SDFR算法和来自HTTP请求消息的比特率请求,从视频编码(即视频数据集)中请求和封装多个低比特率块 sEMER(k)表示k级紧急事件,其条件为t_ℎ−b==k∗t_s,表示客户端需要在接下来的停留时间内在每个请求中下载k个块,以便其播放缓冲区在切换期间有足够的视频播放 overEMER(k)和underEMER(k)表示紧急事件超过k级或缺乏k级 服务器推送块比特率满足

4.4 参数更新

更新参数:权重更新周期t,用于量化每个因素(例如重缓冲和平滑度)对带宽分配贡献的效用函数参数的最优值,如β和λ。 构造训练数据集:对于不同的场景,我们采用不同的参数模拟值(例如,β和λ),并将模拟值随机分配到不同的场景中,再执行带宽分配策略。 预测新情景的参数:一旦出现新场景,首先收集用户移动情况和BS拓扑信息,并将这些特征输入到训练好的模型中,以预测出更适合此类场景的参数值。

5实现

5.1 系统配置、指标、数据集和基准

5.1.1 系统设置

服务器配备了3.5GHz的英特尔酷睿i7-5930K CPU, 32GB (DDR4 3000MHz) RAM,Killer E3000 2.5Gbps以太网网口。所有客户端使用支持QUIC (HTTP/3)的谷歌Chrome(Version 83)。 移动客户端使用iPhone XR、小米Mi 8、Surface Go 2、2 × IPad Air 4、IPad Mini 4、ThinkPad X1和2 × MacBook Pro等10台设备作为原型测试。

5.1.2 指标

1)QoE:用于描述客户端对移动流媒体视频的观看体验。2)max-min QoE公平性:以最小QoE反映客户端的QoE改善。3)最小QoE:表示所有客户端中QoE值最小的客户端。4)平均QoE:总体参与客户的平均QoE。5)累积分布函数(CDF):反映QoE公平性改善程度。

5.1.3 数据集

通过反映真实世界分布的标准测试数据集[38]来评估VSiM。它包括20个视频。在在我们的数据集中,ck的值在45kbps到3936kbps之间。它包括低、中、高级别的比特率。

5.1.4比较方法

(1)Cubic与平均带宽; (2)Minerva,针对具有瓶颈链路但不考虑移动性,因而将其效用函数和感知质量概念移植到我们的移动实验场景中; (3)GreedyMSMC利用移动环境下基站的负载均衡实现QoE提升; (4)在移动无线网络中,PreCache通过在下一个基站的缓存中预存储视频来提高QoE性能

5.2 Mobility Pattern移动模式

VSiM适应多种移动模式,并将其映射为停留时间和切换时间,以实现高移动客户端的QoE公平性。

5.2.1 评估机制的三个移动性模型

1)高速公路机动性模型和2)铁路机动性模型:移动用户在高速公路/铁路上被限制在自己的车道上,其速度暂时依赖于其先前的速度;3)随机路点模型:在每个瞬间,用户随机选择一个目的地,并以从[0,vmax]中均匀随机选择的速度向目的地移动,其中vmax为每个用户预设的最大速度。

5.2.2 速度

客户的移动分为三组:慢速移动(v∈[35,50]km/h),中等移动(v∈[80,100]km/h),快速移动(v∈[135,150]km/h)。汽车/摩托车和火车的加速度分别在[−8,2.5]m/s2和[−7,0.5]m/s2以内。

5.3 模拟和原型场景

5.3.1 基站传播和路径损耗模型

5.3.2 基站拓扑结构

拓扑1:有连接丢失区的基站。选择从A市火车站到B市火车站的铁路和公路(约110km)。该有37个4G基站和200个5G基站,5G基站每500m部署一次,4G基站每3km部署一次,4G和5G BS的传输距离分别为2km和300m。 拓扑2:无连接丢失区的基站。在发达的城市地区,所有基站覆盖区域都重叠。选择A市到B市的铁路和公路(约24km)。该区域覆盖48个5G基站,每500m部署一个5G基站,传输距离为300m。

6实验结果

6.1 VSiM的关键技术的贡献

在拓扑1中使用60个客户端和150Mbps带宽 与没有带宽分配技术的VSiM相比,VSiM中的最小QoE高出约33% 与没有服务器推送技术的VSiM相比,最小QoE和平均QoE分别高15和13% VSiM和无参数更新VSiM在拓扑1中都表现良好 VSiM在最小QoE和平均QoE方面都比无参数更新VSiM在拓扑2中实现了更高的值

6.2 各种拓扑、视频长度、客户端数量、ABR算法和移动模式的影响

与Cubic相比,VSiM的拓扑1和拓扑2中都实现了Min QoE的显著提高. VSiM在不同长度的视频中实现了稳定的Min QoE和Avg. QoE,且比Cubic好得多 VSiM对不同数量客户端的性能稳定。

VSiM在不同ABR算法上都取得了良好的性能。 VSiM适应各种移动模式。

6.3 原型测试

带宽为10Mbps、2个或4个移动客户端情况下的真实无线链路的带宽和QoE随时间的变化

6.3.1 对网络设置的敏感性

VSiM改进了观看质量较低的客户端,以最大限度地提高所有客户端的QoE公平性。

6.3.2 延迟条件的影响

VSiM在最小QoE和平均QoE方面都比Cubic取得了更好的性能。

6.3.3 与最先进的方法相比

VSiM在25Mbps带宽下的平均QoE提升比Cubic和Minerva分别高出约13%(约2.0分)和30%(约4.3分)。相比PreCache和GreedyMSMC, VSiM的平均提升幅度分别约为11%(约1.8分)和16%(约2.4分)。 展示了在实际无线网络中以15Mbps和25Mbps带宽并支持10个移动客户端的情况下,运行20次VSiM相对于Cubic、Minerva、GreedyMSMC和PreCache的QoE公平性提升的CDF.

图19记录了每次运行时QoE最小的客户端

7评价

7.1优点

提出一种在不影响带宽的情况下快速填充客户端缓冲区的重缓冲避免服务器推送算法

7.2 缺点

1最高速度只考虑到150km/h,没有考虑更高速的场景(Z系列即可达160km/h,D、G的速度则远远高于150) 2参数更新网络由离线训练而得,对不同环境的适应性可能不如在线训练网络 3客户端移动数据可能不可靠,尤其在随机路点模型下,QoE是否取得优秀结果 4效用函数建模问题:Rk’应该改为max(Rk’,0),否则Rk’过小,小于零时可能影响结果

7.3启示

基于QUIC的方案可能是面对高度波动的数据链路问题的热门选择

相关文章

评论可见,请评论后查看内容,谢谢!!!
 您阅读本篇文章共花了: