在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌教你用"注意力"提升產(chǎn)品體驗(yàn)

CVer ? 來(lái)源:新智元 ? 2023-06-27 14:37 ? 次閱讀

【導(dǎo)讀】讓用戶在體驗(yàn)過(guò)程中關(guān)注主要部分,得先抓住用戶的眼球。

人每時(shí)每刻都在接收海量的信息,例如每秒進(jìn)入視網(wǎng)膜的數(shù)據(jù)量就達(dá)到了10的10次方比特,但人類會(huì)選擇性地關(guān)注一些任務(wù)相關(guān)或感興趣的區(qū)域以進(jìn)一步處理,比如記憶、理解和采取行動(dòng)等。

如何將人類的注意力進(jìn)行建模,即顯著性模型(saliency model)在神經(jīng)科學(xué)、心理學(xué)、人機(jī)交互(HCI)和計(jì)算機(jī)視覺(jué)等領(lǐng)域開(kāi)始得到廣泛關(guān)注。

預(yù)測(cè)「哪些區(qū)域可能吸引注意力」的能力在圖形、攝影、圖像壓縮和處理以及視覺(jué)質(zhì)量測(cè)量等領(lǐng)域具有許多重要應(yīng)用。

不過(guò),使用機(jī)器學(xué)習(xí)和基于智能手機(jī)的凝視估計(jì)來(lái)加速眼動(dòng)研究需要專門(mén)的硬件,每臺(tái)成本高達(dá)三萬(wàn)美元,并不具備廣泛推廣的條件。

最近,谷歌的研究人員介紹了兩篇相關(guān)領(lǐng)域的研究論文,分別發(fā)表在CVPR 2022和CVPR 2023上,主要研究了如何利用「人類注意力的預(yù)測(cè)模型」來(lái)實(shí)現(xiàn)更好的用戶體驗(yàn),例如用圖像編輯操作以最大限度地減少視覺(jué)混亂、分心或偽影等問(wèn)題,使用圖像壓縮來(lái)更快地加載網(wǎng)頁(yè)或應(yīng)用程序,并引導(dǎo)機(jī)器學(xué)習(xí)模型實(shí)現(xiàn)更直觀的類人解釋和模型性能。

這兩篇論文主要關(guān)注圖像編輯和圖像壓縮,并討論了在具體應(yīng)用場(chǎng)景下,對(duì)注意力建模的相關(guān)最新進(jìn)展。

注意力引導(dǎo)的圖像編輯

對(duì)人體注意力進(jìn)行建模,通常需要把眼睛看到的圖像作為輸入,如自然圖像或網(wǎng)頁(yè)的屏幕截圖等,并將預(yù)測(cè)的熱力圖作為輸出。

預(yù)測(cè)得到的熱力圖會(huì)根據(jù)「眼球跟蹤器」或「鼠標(biāo)懸停/點(diǎn)擊」等收集到的實(shí)時(shí)注意力近似值進(jìn)行評(píng)估。

之前的模型大多利用手工制作的視覺(jué)線索特征,如顏色/亮度對(duì)比度、邊緣和形狀等,最近也有一些方法轉(zhuǎn)向基于深度神經(jīng)網(wǎng)絡(luò)來(lái)自動(dòng)學(xué)習(xí)判別特征,使用的模型包括卷積、遞歸神經(jīng)網(wǎng)絡(luò)以及視覺(jué)Transformer網(wǎng)絡(luò)等。

谷歌在CVPR2022上發(fā)表的一篇論文中,利用深度顯著性模型(deep saliency models)進(jìn)行視覺(jué)逼真的編輯(visually realistic edits),可以顯著改變觀察者對(duì)不同圖像區(qū)域的注意力。

c4709a24-14a8-11ee-962d-dac502259ad0.png

論文鏈接:https://openaccess.thecvf.com/content/CVPR2022/papers/Aberman_Deep_Saliency_Prior_for_Reducing_Visual_Distraction_CVPR_2022_paper.pdf

比如移除背景中分散注意力的物體可以降低照片中的雜亂程度,從而提高用戶滿意度;同樣,在視頻會(huì)議中,減少背景中的混亂度也可以增加對(duì)主要發(fā)言者的關(guān)注度。

為了探索哪些類型的編輯效果是可實(shí)現(xiàn)的,以及這些效果如何影響觀眾的注意力,研究人員開(kāi)發(fā)了一個(gè)優(yōu)化框架,以用于使用可區(qū)分的預(yù)測(cè)顯著性模型來(lái)引導(dǎo)圖像中的視覺(jué)注意力。

c49b203c-14a8-11ee-962d-dac502259ad0.png

給定輸入圖像和表示干擾物區(qū)域的二元遮罩,使用顯著性預(yù)測(cè)模型對(duì)遮罩內(nèi)的像素提供指導(dǎo)并編輯圖像,降低遮罩區(qū)域內(nèi)的顯著性。

為了確保編輯后的圖像自然且逼真,研究人員精心選擇了四種圖像編輯操作符,其中包括兩個(gè)標(biāo)準(zhǔn)圖像編輯操作(即重新著色和圖像扭曲);以及及兩個(gè)可學(xué)習(xí)的操作符,即多層卷積濾波器和生成模型(GAN)。

利用這些操作符,該框架可以產(chǎn)生各種強(qiáng)大的效果,包括重新著色、修復(fù)、偽裝、對(duì)象編輯、插入以及面部屬性編輯,并且所有這些效果都是由單個(gè)預(yù)訓(xùn)練的顯著性模型驅(qū)動(dòng)的,沒(méi)有任何額外的監(jiān)督或訓(xùn)練。

c4a70bf4-14a8-11ee-962d-dac502259ad0.png

減少視覺(jué)干擾的例子,由顯著性模型與幾個(gè)操作符引導(dǎo),干擾物區(qū)域被標(biāo)記在顯著性圖(紅色邊框)的頂部

需要注意的是,研究人員的目標(biāo)不是與產(chǎn)生每種效果的專用方法競(jìng)爭(zhēng),只是演示如何通過(guò)嵌入在深度顯著性模型中的知識(shí)來(lái)指導(dǎo)多個(gè)編輯操作。

個(gè)性化的顯著性建模

之前的研究假定單個(gè)顯著性模型即可完成對(duì)全部人群的預(yù)測(cè)任務(wù),不過(guò)人類的注意力在個(gè)體之間是不同的:雖然對(duì)顯著線索的檢測(cè)是一致的,但具體的順序、解釋和注視分布可以有很大的區(qū)別,這一問(wèn)題也提供了為個(gè)人或團(tuán)體創(chuàng)建個(gè)性化用戶體驗(yàn)的機(jī)會(huì)。

在CVPR2023的一篇論文中,谷歌的研究人員引入了一個(gè)用戶感知的顯著性模型,也是首個(gè)僅用單模型就可以完成預(yù)測(cè)某個(gè)用戶、一組用戶和通用人群注意力的框架。

c4bc6b5c-14a8-11ee-962d-dac502259ad0.png

論文鏈接:https://openaccess.thecvf.com/content/CVPR2023/papers/Chen_Learning_From_Unique_Perspectives_User-Aware_Saliency_Modeling_CVPR_2023_paper.pdf

該框架的核心是將每個(gè)參與者的視覺(jué)偏好與每個(gè)用戶的注意力熱力圖和自適應(yīng)用戶遮罩進(jìn)行組合,需要每個(gè)用戶的注意力標(biāo)注在訓(xùn)練過(guò)程中都是可用的,可用的數(shù)據(jù)集包括用于自然圖像的OSIE移動(dòng)的凝視數(shù)據(jù)集、網(wǎng)頁(yè)的FiWI和WebSaliency數(shù)據(jù)集。

c4e4ee1a-14a8-11ee-962d-dac502259ad0.png

該模型并沒(méi)有預(yù)測(cè)表示所有用戶的注意力的單個(gè)顯著性熱力圖,而是預(yù)測(cè)每個(gè)用戶的注意力圖以編碼個(gè)體的注意力模式。

此外,該模型采用用戶掩碼(大小等于參與者數(shù)量的二進(jìn)制向量)來(lái)指示當(dāng)前樣本中參與者的存在,使得模型可以選擇一組參與者,并將偏好組合成單個(gè)熱力圖。

c517e1ee-14a8-11ee-962d-dac502259ad0.png

預(yù)測(cè)注意力與GT值,EML-Net是最先進(jìn)模型的預(yù)測(cè),對(duì)于兩個(gè)參與者/組具有相同的預(yù)測(cè);Ours提出的用戶感知顯著性模型的預(yù)測(cè),可以正確預(yù)測(cè)每個(gè)參與者/組的獨(dú)特偏好。第一個(gè)圖像來(lái)自O(shè)SIE圖像集,第二個(gè)圖像來(lái)自FiWI。

以顯著特征為中心的漸進(jìn)式圖像解碼

除了圖像編輯,人類注意力模型也可以改善用戶的瀏覽體驗(yàn)。

在上網(wǎng)時(shí),最讓人感到不舒服的用戶體驗(yàn)之一就是等待加載帶有圖像的網(wǎng)頁(yè),特別是在網(wǎng)速很慢的情況下,一種改善用戶體驗(yàn)的方式是圖像的漸進(jìn)式解碼,可以隨著數(shù)據(jù)逐漸下載再解碼,并顯示越來(lái)越高分辨率的圖像,直到全分辨率圖像準(zhǔn)備就緒。

漸進(jìn)式解碼通常按順序進(jìn)行(例如,從左到右、從上到下),使用預(yù)測(cè)注意力模型,就可以基于顯著性對(duì)圖像進(jìn)行解碼,從而可以首先發(fā)送顯示最顯著區(qū)域的細(xì)節(jié)所需的數(shù)據(jù)。

例如,在肖像中,用于面部的字節(jié)可以優(yōu)先于用于失焦背景的字節(jié),因此用戶更早地感知到更好的圖像質(zhì)量,并體驗(yàn)到顯著減少的等待時(shí)間。

基于這個(gè)想法,預(yù)測(cè)注意力模型可以幫助圖像壓縮和更快地加載具有圖像的網(wǎng)頁(yè),改善大型圖像和流媒體/VR應(yīng)用的渲染。

結(jié)論

上面兩篇論文展示了人類注意力的預(yù)測(cè)模型如何通過(guò)具體的應(yīng)用場(chǎng)景實(shí)現(xiàn)令人愉快的用戶體驗(yàn),例如圖像編輯操作,可以減少用戶圖像或照片中的混亂、分心或偽影,以及漸進(jìn)式圖像解碼,可以大大減少用戶在圖像完全渲染時(shí)的感知等待時(shí)間。

文中提出的用戶感知顯著性模型可以進(jìn)一步為個(gè)人用戶或群體個(gè)性化上述應(yīng)用程序,從而實(shí)現(xiàn)更豐富、更獨(dú)特的體驗(yàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6172

    瀏覽量

    105629
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4774

    瀏覽量

    100898
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1087

    瀏覽量

    40501

原文標(biāo)題:CVPR 2023 | 谷歌教你用"注意力"提升產(chǎn)品體驗(yàn)

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    江西薩瑞微榮獲"2024全國(guó)第三代半導(dǎo)體制造最佳新銳企業(yè)"稱號(hào)

    快速發(fā)展與創(chuàng)新實(shí)力在2024全國(guó)第三代半導(dǎo)體產(chǎn)業(yè)發(fā)展大會(huì)上,江西薩瑞微電子科技有限公司榮獲"2024全國(guó)第三代半導(dǎo)體制造最佳新銳企業(yè)"稱號(hào)。這一榮譽(yù)不僅是對(duì)公司技術(shù)創(chuàng)新和產(chǎn)業(yè)化
    的頭像 發(fā)表于 10-31 08:09 ?375次閱讀
    江西薩瑞微榮獲&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;2024全國(guó)第三代半導(dǎo)體制造最佳新銳企業(yè)&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;稱號(hào)

    OCTC發(fā)布&amp;quot;算工廠&amp;quot;!力促智算中心高效規(guī)劃建設(shè)投運(yùn)

    創(chuàng)新提出面向未來(lái)數(shù)據(jù)中心的&quot;算工廠&quot;模式,核心是以規(guī)(劃)、建(設(shè))、運(yùn)(營(yíng))一體化的交鑰匙工程,實(shí)現(xiàn)智算中心快速投運(yùn)、綠色低碳,在當(dāng)前AIGC算供需挑戰(zhàn)下,開(kāi)
    的頭像 發(fā)表于 10-11 09:10 ?525次閱讀
    OCTC發(fā)布&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;算<b class='flag-5'>力</b>工廠&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;!力促智算中心高效規(guī)劃建設(shè)投運(yùn)

    軟通動(dòng)力攜手華為啟動(dòng)&amp;quot;智鏈險(xiǎn)界&amp;quot;計(jì)劃,強(qiáng)化生態(tài)鏈接共啟保險(xiǎn)AI新時(shí)代

    軟通動(dòng)力攜子品牌軟通金科受邀參加此次大會(huì),發(fā)表&quot;智馭未來(lái) ? 探索保險(xiǎn)AI新業(yè)態(tài)&quot;主旨演講,并攜手華為正式啟動(dòng)&quot;智鏈險(xiǎn)界——保險(xiǎn)生態(tài)場(chǎng)景鏈接計(jì)劃&quot
    的頭像 發(fā)表于 09-23 19:22 ?381次閱讀
    軟通動(dòng)力攜手華為啟動(dòng)&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;智鏈險(xiǎn)界&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;計(jì)劃,強(qiáng)化生態(tài)鏈接共啟保險(xiǎn)AI新時(shí)代

    全方位精準(zhǔn)測(cè)量技術(shù)助力:中國(guó)經(jīng)濟(jì)加力發(fā)展向前&amp;amp;quot;進(jìn)&amp;amp;quot;

    全方位精準(zhǔn)測(cè)量技術(shù)助力:中國(guó)經(jīng)濟(jì)加力發(fā)展向前&quot;進(jìn)&quot;
    的頭像 發(fā)表于 07-15 09:53 ?377次閱讀
    全方位精準(zhǔn)測(cè)量技術(shù)助力:中國(guó)經(jīng)濟(jì)加力發(fā)展向前&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;進(jìn)&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;

    晶科能源榮獲EUPD Research授予的六項(xiàng)&amp;quot;頂級(jí)光伏品牌&amp;quot;稱號(hào)

    近日,由權(quán)威調(diào)研機(jī)構(gòu)EUPD Research頒發(fā),晶科能源在巴西、哥倫比亞、墨西哥、智利等拉美主要國(guó)家六個(gè)地區(qū)榮獲 &quot;頂級(jí)光伏品牌 &quot;稱號(hào)。憑借先進(jìn)的技術(shù)、完善的流程和對(duì)卓越的不懈追求,晶科能源將繼續(xù)提升
    的頭像 發(fā)表于 05-10 09:17 ?511次閱讀
    晶科能源榮獲EUPD Research授予的六項(xiàng)&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;頂級(jí)光伏品牌&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;稱號(hào)

    谷歌整合安卓系統(tǒng)與Pixel硬件團(tuán)隊(duì),奧斯特羅引領(lǐng)新&amp;quot;Platfo&amp;quot;

    Osterloh曾主管谷歌硬件部門(mén),涵蓋Pixel、Fitbit以及Nest等各種產(chǎn)品的研發(fā)和戰(zhàn)略規(guī)劃。他對(duì)The Verge表示:“唯有結(jié)合硬件、軟件和AI團(tuán)隊(duì),方能為用戶提供突破性AI體驗(yàn)。
    的頭像 發(fā)表于 04-19 10:16 ?487次閱讀

    谷歌將在Pixel Tablet平板上引入&amp;quot;Look and Sign&amp;quot;功能,提升用戶體驗(yàn)

    現(xiàn)階段,谷歌已在Nest Hub Max采用“Look and Talk”(看并說(shuō)話)功能,用戶可在特定區(qū)域直視該設(shè)備,無(wú)需喚醒詞“OK Google”,便能實(shí)現(xiàn)語(yǔ)音指令。
    的頭像 發(fā)表于 04-18 15:36 ?369次閱讀

    九聯(lián)科技推出一款&amp;quot;射手座&amp;quot;UMA502-T7物聯(lián)網(wǎng)模組

    在物聯(lián)網(wǎng)技術(shù)飛速發(fā)展的時(shí)代背景下,九聯(lián)科技憑借深厚的研發(fā)底蘊(yùn)與創(chuàng)新精神,精心打造出象征著自由探索與勇敢進(jìn)取精神的&quot;射手座&quot;UMA502-T7模組,以昂揚(yáng)之姿挺進(jìn)海外市場(chǎng),宣告了九聯(lián)科技物聯(lián)網(wǎng)模組國(guó)際化進(jìn)程的盛大起航。
    的頭像 發(fā)表于 04-14 09:38 ?898次閱讀

    科沃斯掃地機(jī)器人通過(guò)TüV萊茵&amp;quot;防纏繞&amp;quot;和&amp;quot;高效邊角清潔&amp;quot;認(rèn)證

    3月15日,在2024中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE)上,國(guó)際獨(dú)立第三方檢測(cè)、檢驗(yàn)和認(rèn)證機(jī)構(gòu)德國(guó)萊茵TüV大中華區(qū)(簡(jiǎn)稱&quot;TüV萊茵&quot;)為科沃斯兩款掃地機(jī)器人(型號(hào):DDX14、DDX11)
    的頭像 發(fā)表于 03-17 10:49 ?882次閱讀

    Quanterix宣布Tau217血液檢測(cè)被美國(guó)FDA授予 &amp;quot;突破性器械 &amp;quot;認(rèn)證

    3月4日,Quanterix宣布其Simoa磷酸化Tau217(p-Tau 217)血液檢測(cè)已被美國(guó)FDA授予 &quot;突破性器械 &quot;認(rèn)證,可用于阿爾茨海默病 (AD) 的輔助診斷評(píng)估。
    的頭像 發(fā)表于 03-12 17:23 ?2350次閱讀

    電池&amp;quot;無(wú)&amp;quot;隔膜?SEI新&amp;quot;膜&amp;quot;法!

    枝晶是阻礙鋅基水系電池發(fā)展的一個(gè)亟待解決的問(wèn)題。電沉積過(guò)程主要包含離子遷移、電還原和電結(jié)晶三個(gè)步驟。
    的頭像 發(fā)表于 03-11 10:03 ?1015次閱讀
    電池&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;無(wú)&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;隔膜?SEI新&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;膜&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;法!

    中創(chuàng)新航榮獲逸動(dòng)科技2023年度&amp;quot;優(yōu)秀戰(zhàn)略合作伙伴獎(jiǎng)&amp;quot;

    近日,中創(chuàng)新航憑借電動(dòng)船舶領(lǐng)域領(lǐng)先的技術(shù)實(shí)力、卓越的產(chǎn)品質(zhì)量、持續(xù)穩(wěn)定的交付能力以及優(yōu)質(zhì)高效的服務(wù),榮獲逸動(dòng)科技2023年度&quot;優(yōu)秀戰(zhàn)略合作伙伴獎(jiǎng)&quot;。
    的頭像 發(fā)表于 02-29 13:51 ?506次閱讀

    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&amp;amp;quot;哨兵&amp;amp;quot;

    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&quot;哨兵&quot; 電力,如同現(xiàn)代社會(huì)的血脈,支撐著我們的生活和工作正常運(yùn)行。然而,一旦這條血脈出現(xiàn)故障,生活和工作
    的頭像 發(fā)表于 01-22 15:11 ?563次閱讀
    第二代配網(wǎng)行波故障預(yù)警與定位裝置YT/XJ-001:守護(hù)電力線路的超能&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;哨兵&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;

    電流互感器帶&amp;quot;S&amp;quot;和不帶S所表示的含義及區(qū)別

    電流互感器帶&quot;S&quot;和不帶S都是表示測(cè)量電流互感器精度等級(jí)。在規(guī)定使用條件下,互感器的誤差在該等級(jí)規(guī)定的限值之內(nèi)。電力工程中計(jì)量常用的等級(jí)有0.2、0.5、0.2S、0.5S等。
    的頭像 發(fā)表于 01-14 10:32 ?1605次閱讀
    電流互感器帶&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;S&<b class='flag-5'>amp</b>;<b class='flag-5'>quot</b>;和不帶S所表示的含義及區(qū)別

    工程送樣!手把手教你用好廣和通RedCap模組FG131&amp;amp;amp;FG132系列

    工程送樣!手把手教你用好廣和通RedCap模組FG131&amp;FG132系列
    的頭像 發(fā)表于 01-11 18:22 ?711次閱讀
    工程送樣!手把手<b class='flag-5'>教你用</b>好廣和通RedCap模組FG131&<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;<b class='flag-5'>amp</b>;FG132系列
    主站蜘蛛池模板: se色成人亚洲综合| 免费看片免| 婷婷丁香激情| 夜间免费视频| 瑟瑟久久| 亚洲色图 第一页| 黄视频网站免费观看| 97爱sese| 3344成年在线视频免费播放男男| 狠狠干视频网| 精品久久天干天天天按摩 | 久久精品亚洲| 97久久综合九色综合| 黄色超污网站| 国产亚洲3p一区二区三区| 天天射综合网站| 日本免费一区二区在线观看| 午夜精品久久久久久91| 超大乳抖乳露双乳视频| 91大神大战丝袜美女在线观看 | 日本偷偷操| 欧美一二| 伊人久久大| 亚洲精品456人成在线| 四虎免费影院4hu永久免费| 日韩色爱| 久久婷婷国产综合精品| 丁香六月婷婷精品免费观看| a级毛片免费网站| 日本jlzz| 亚洲色图偷窥自拍| 国产拍拍视频| 狠狠色婷婷狠狠狠亚洲综合| 国产精品一区二区三区四区| 最新午夜| 久操视频网| 九九免费久久这里有精品23| 四虎官网| www我要色综合com| 国模吧双双大尺度炮交gogo| 亚洲综合资源|