五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

新聞動態(tài)

28
04月 2023
2023-04-28
媒體算力網(wǎng)絡(luò)資源調(diào)度論文在 IEEE Transactions 旗艦期刊TPDS上發(fā)表

論文《Practical Cloud-Edge Scheduling for Large-Scale Crowdsourced Live Streaming》已被IEEE Transactions 旗艦期刊TPDS接收。本文針對云邊緣提供商提供的大規(guī)模眾包直播(CLS)服務(wù),探討了傳統(tǒng)智慧“就近服務(wù)”策略可能帶來的成本效率低下問題。作者利用來自中國代表性云邊緣提供商華為云的實際服務(wù)數(shù)據(jù)進(jìn)行了大規(guī)模的測量分析,發(fā)現(xiàn)巨量頻道數(shù)量對云邊緣提供商的運營支出造成了極大的負(fù)擔(dān),而不平衡的觀眾分布使得邊緣節(jié)點承受了顯著的成本效率低下。

為了解決上述問題,作者提出了一種名為AggCast的新型CLS調(diào)度框架,以優(yōu)化云邊緣提供商的邊緣節(jié)點利用率。AggCast的核心思想是將最初分散在不同地區(qū)的一些觀眾聚合起來,分配給少數(shù)預(yù)先選定的節(jié)點,從而降低帶寬成本。特別地,通過集成從大規(guī)模測量中獲得的有用洞見,AggCast不僅可以確保用戶體驗質(zhì)量(QoS)不會受到降低,還能滿足CLS服務(wù)的系統(tǒng)要求。AggCast已進(jìn)行了A/B測試并完全部署。在線和基于蹤跡的實驗表明,與最普遍的方法相比,AggCast節(jié)省了超過16.3%的源回程(BTS)帶寬成本,同時顯著提高了QoS(啟動延遲,停滯頻率和停滯時間分別降低了12.3%,4.57%和3.91%)。

30
03月 2023
2023-03-30
基于CNN的JPEG解碼論文發(fā)表于IEEE Trans. Consum. Electron.

論文《JPEG Decoding With Nonlinear Inverse Transform Network and Progressive Recurrent Residual Network》提出了一種基于非線性逆變換網(wǎng)絡(luò)和漸進(jìn)遞歸殘差網(wǎng)絡(luò)的JPEG解碼方法(稱為JDNet)。JDNet用一個模型重建不同質(zhì)量因子(QF)的JPEG圖像。在JDNet中,首先提出了基于CNN的逆變換網(wǎng)絡(luò)(iTNet)來學(xué)習(xí)DCT系數(shù)到其相應(yīng)原始像素的非線性映射,這與以前DCT網(wǎng)絡(luò)中的線性映射相反,iTNet可以減少逆DCT過程中的誤差傳播,獲得更準(zhǔn)確的重建信息。此外,iTNet可以與任何JPEG后處理方法結(jié)合使用,以提高其性能。其次,在設(shè)計的后處理網(wǎng)絡(luò)中,提出了漸進(jìn)遞歸殘差網(wǎng)絡(luò)(PRRN)用于局部特征提取,該網(wǎng)絡(luò)利用多尺度空間(LNLMS)中的局部和非局部相似性,進(jìn)一步提高解碼圖像質(zhì)量。實驗結(jié)果表明,與JPEG、ARCNN、DnCNN和STRRN相比,JDNet在Live1數(shù)據(jù)集上的平均增益分別為1.88dB、0.63dB、0.35dB、0.24dB,在城市100數(shù)據(jù)集上的平均增益分別為2.61dB、1.11dB、0.69dB和0.29dB。BSD500數(shù)據(jù)集上分別為1.91dB、0.69dB、0.37dB和0.13dB。

26
02月 2023
2023-02-26
視頻超分辨率論文被國際頂會CVPR接收

媒體創(chuàng)新Lab與武漢大學(xué)合作的論文《Continuous Space-Time Video Super-Resolution Utilizing Long-Range Temporal Information》已在國際頂會Computer Vision and Pattern Recognition上發(fā)表。本文考慮視頻時空超分辨率(ST-VSR)任務(wù),即同時將源視頻超分到更高的幀率和分辨率。然而,大多數(shù)現(xiàn)有方案在訓(xùn)練階段要么固定時間和尺度,要么只接受預(yù)設(shè)的輸入幀數(shù)(例如兩個相鄰幀)無法利用時域上的更多信息。為了解決這些問題,本文提出了一種連續(xù)ST-VSR(C-STVSR)方法,可以將給定視頻轉(zhuǎn)換為任何幀率和分辨率。為了實現(xiàn)任意時域插值,我們提出了前向變形引導(dǎo)幀合成模塊和光流引導(dǎo)上下文一致性損失函數(shù),以更好地逼近極端的運動信息并保留輸入幀和預(yù)測幀之間的相似結(jié)構(gòu)。此外,本文設(shè)計了一個內(nèi)存友好的級聯(lián)深度模塊來實現(xiàn)連續(xù)空間上采樣。同時,通過對光流的復(fù)雜重組,使得從大跨度的相鄰幀信息傳播成為可能,從而得到更好的重建質(zhì)量。實驗表明,與業(yè)界最先進(jìn)的方法相比,本文所提出的算法具有更好的靈活性,在各種數(shù)據(jù)集上測試均有更好的性能,在客觀評估和主觀視覺效果方面也都表現(xiàn)出色。