黄色网址三级_欧美丰满少妇xxxx_中文字幕另类日韩欧美亚洲嫩草_91蜜桃免费观看视频_成人免费在线观看网站_国产成人一区二区三区免费看_麻豆91在线_亚洲欧洲国产日韩精品_亚洲茄子视频_韩国一区二区av

您當前的位置: 首頁 > 新聞 > 行業

環信AI公開課:OpenAI通用語言模型GPT-2論文解析

來源: 編輯:vbeiyou 時間:2019-03-13 07:05人閱讀
OpenAI最近似乎搞了個大新聞,隨手一搜,”最大模型”、”15億參數”、”無需領域數據”等等躍然在目。當然現在是標題黨的年代,為了吸引眼球,外行媒體的夸張手法也能理解。當然最大的爭議還是他們在官網上解釋為什么只提供小模型的理由:為了防止大模型用于生成欺詐和有歧視性的文章,我們只發布小規模的模型(Due to concerns about large language models being used to generate deceptive, biased, or abusive language at scale, we are only releasing a much smaller version of GPT-2 along with sampling code)。這個當然引起了軒然大波,使得很多人在Reddit上吐槽。聽這語氣,人工智能已經實現了,為了保護人類,他們不能把這個惡魔放出來。實際情況怎么樣呢?別聽專家的,最好還是我們自己讀讀論文跑跑代碼吧。

環信AI公開課:OpenAI通用語言模型GPT-2論文解析(圖1)

目錄 背景簡介 BERT的缺陷 語言模型 Children’s Book LAMBADA Winograd Schema Challenge Reading Comprehension Summarization 機器翻譯 Question Answering 大翻盤 代碼 背景簡介 2018年深度學習在NLP領域取得了比較大的突破,最大的新聞當屬Google的BERT模型橫掃各大比賽的排行榜。作者認為,深度學習在NLP領域比較重點的三大突破為:Word Embedding、RNN/LSTM/GRU+Seq2Seq+Attention+Self-Attention機制和Contextual Word Embedding(Universal Sentence Embedding)。 Word Embedding解決了傳統機器學習方法的特征稀疏問題,它通過把一個詞映射到一個低維稠密的語義空間,從而使得相似的詞可以共享上下文信息,從而提升泛化能力。而且通過無監督的訓練可以獲得高質量的詞向量(比如Word2vec和Glove等方法),從而把這些語義知識遷移到數據較少的具體任務上。但是Word Embedding學到的是一個詞的所有語義,比如bank可以是”銀行”也可以是”水邊。如果一定要用一個固定的向量來編碼其語義,那么我們只能把這兩個詞的語義都編碼進去,但是實際一個句子中只有一個語義是合理的,這顯然是有問題的。 這時我們可以通過RNN/LSTM/GRU來編碼上下文的語義,這樣它能學到如果周圍是money,那么bank更可能是”銀行”的語義。最原始的RNN由于梯度消失和梯度爆炸等問題很難訓練,后來引入了LSTM和GRU等模型來解決這個問題。最早的RNN只能用于分類、回歸和序列標注等任務,通過引入兩個RNN構成的Seq2Seq模型可以解決序列的變換問題。比如機器翻譯、摘要、問答和對話系統都可以使用這個模型。尤其機器翻譯這個任務的訓練數據比較大,使用深度學習的方法的效果已經超過傳統的機器學習方法,而且模型結構更加簡單。到了2017年,Google提出了Transformer模型,引入了Self-Attention。Self-Attention的初衷是為了用Attention替代LSTM,從而可以更好的并行(因為LSTM的時序依賴特效很難并行),從而可以處理更大規模的語料。Transformer出來之后被廣泛的用于以前被RNN/LSTM/GRU霸占的地盤,Google更是在Transformer的論文里使用”Attention is all you need”這樣霸氣的標題。現在Transformer已經成為Encoder/Decoder的霸主。 雖然RNN可以學到上下文的信息,但是這些上下文的語義是需要通過特定任務的標注數據使用來有監督的學習。很多任務的訓練數據非常少并且獲取成本很高,因此在實際任務中RNN很難學到復雜的語義關系。當然通過Multi-Task Learning,我們可以利用其它相關任務的數據。比如我們要做文本分類,我們可以利用機器翻譯的訓練數據,通過同時優化兩個(多個)目標,讓模型同時學到兩個任務上的語義信息,因為這兩個任務肯定是共享很多基礎語義信息的,所以它的效果要比單個任務好。但即使這樣,標注的數據量還是非常有限的。 因此2018年的研究熱點就變成了怎么利用無監督的數據學習Contextual Word Embedding(也叫做Universal Sentence Embedding),也就是通過無監督的方法,讓模型能夠學到一個詞在不同上下文的不同語義表示方法。當然這個想法很早就有了,比如2015年的Skip Thought Vector,但是它只使用了BookCorpus,這只有一萬多本書,七千多萬個句子,因此效果并沒有太明顯的提升。 在BERT之前比較大的進展是ELMo、ULMFiT和OpenAI GPT。尤其是OpenAI GPT,它在BERT出現之前已經橫掃過各大排行榜一次了,當然Google的BERT又橫掃了一次,并且PR效果更加明顯。所以OpenAI看風頭都被Google強勁,自然有些羨慕嫉妒恨,也就有了今天我們要討論的OpenAI GPT-2。 UMLFiT比較復雜,而且效果也不是特別好,我們暫且不提。ELMo和OpenAI GPT的思想其實非常非常簡單,就是用海量的無標注數據學習語言模型,在學習語言模型的過程中自然而然的就學到了上下文的語義關系。它們倆都是使用Transformer來學習語言模型,但是在進行下游任務處理的時候就有所不同,ELMo是把它當成特征。拿分類任務來說,輸入一個句子,用ELMo把它掃一次,這樣就可以得到每個詞的表示,這個表示是考慮上下文的,因此”He deposited his money in this bank”和”His soldiers were arrayed along the river bank”中的兩個bank的向量是不同的。下游任務用這些向量來做分類,它會增加一些網絡層,但是ELMo語言模型的參數是固定的。而OpenAI GPT不同,它直接用特定任務來Fine-Tuning Transformer的參數。因為用特定任務的數據來調整Transformer的參數,這樣它更可能學習到與這個任務特定的上下文語義關系,因此效果也更好。 而BERT和OpenAI GPT的方法類似,也是Fine-Tuning的思路,但是它解決了OpenAI GPT(包括ELMo)單向信息流的問題,同時它的模型和語料庫也更大。依賴Google強大的計算能力和工程能力,BERT橫掃了OpenAI GPT,在后者霸主寶座屁股還沒坐熱的時候就把它趕下臺。成王敗寇,再加上Google的PR能力,很少還有人記得OpenAI GPT的貢獻了。要說BERT的學術貢獻,最多是利用了Mask LM(這個模型在上世紀就存在了)和Predicting Next Sentence這個Multi-task Learning而已,其余的方法都是完全follow OpenAI GPT的。因此OpenAI心情郁悶也就可以理解了,這次搞出個GPT-2也是想出來露個臉,刷一下存在感。 更多技術細節,有興趣的讀者可以參考詳解谷歌最強NLP模型BERT或者參與作者的BERT課程。地址:http://fancyerii.github.io/2019/03/05/bert-prerequisites/ BERT的缺陷 如果你是OpenAI GPT的科學家,你會怎么辦呢?當然如果能提出一個更加突破性的模型,然后在各大比賽上橫掃BERT,這自然是最理想的。但是學術研究又不能像媒體宣傳的那樣天天突破(作者訂閱的各種公眾號倒是每天都能看到突破,因此經常被震驚),要拼資源和算力那顯然拼不過Google。其實除了OpenAI,其它公司也想搞點新聞,比如Microsoft最近搞了個MT-DNN,據說效果要比BERT好(一點),但是由于好的有限,而且有沒有源代碼甚至模型,誰知道是不是用tricky的方法過擬合這些數據集呢? 我們回到OpenAI,顯然短期類無法超過BERT,Google開源的BERT模型橫掃了其它更多榜單,仿佛挑釁般的對其他對手說:不服你跑個分啊。被當面打臉,顯然很郁悶。那怎么辦呢?OpenAI的科學家突然找到了BERT模型的一個弱點——它不是”正常的”語言模型,因此不能生成句子。BERT的Mask LM只能用來做完形填空題,也就是用手遮住一個句子的某個單詞,然后讓它猜哪個詞更可能,但是普通的語言模型是可以生成句子的。抓住這個點之后,OpenAI大作文章。它使用Common Crawl的8百萬文章(共40GB,不知道是否壓縮過)訓練了一個15億(1542M)參數的”最大模型”,不過參數雖然很多,但是訓練數據確實有點少。作者訓練個中文詞向量還得搞個幾千萬的百科文章,Google的數據那得用TB來做單位吧。因此作者在文中強調模型是underfit的(All models still underfit Web-Text and held-out perplexity has as of yet improved givenmore training time.),參數多,數據少,那自然不能訓練太久,否則過擬合后效果更差(但是生成句子過擬合無所謂,直接把莎士比亞全集的句子背出來肯定能震驚很多人)。訓練了這個模型用來刷榜?我猜測作者嘗試過,結果呢?那自然就不用說了,否則我們看到的就不是現在的這個新聞了。 不過沒關系,他們的目標是BERT的軟肋——不能生成句子(段落和篇章當然就更不行了)。我們來看看論文的實驗是怎么設計的: 語言模型 BERT不是普通的語言模型吧,好,那咱們來PK一下(你是零分啊)。但是用Transformer去跑語言模型這樣的灌水文章別人早發過了,沒啥意思。因此要搞出一個Zero-shot的概念:你們在一個很小的語料庫訓練一個語言模型然后大家比賽,俺不這么跟你玩。俺用很大的語料訓練一個模型,然后不用你的數據,效果還能超過你們在小數據上的效果。 當然這個概念還是不錯的,結果如下圖所示。

環信AI公開課:OpenAI通用語言模型GPT-2論文解析(圖2)

圖:不同數據集上語言模型的PPL,越小越好 我們看到,除了最后一個1BW的很大的語料庫,OpenAI都超過了它們。其實這也說明了,如果有很多的領域數據,還是領域數據好使,這在機器翻譯系統里也得到了驗證。如果訓練數據較少,我們通常使用預訓練的詞向量作為模型詞向量的初始值。如果訓練數據非常少,我們通常固定預訓練的詞向量;如果訓練數據還可以,那么就Fine-Tuning一下。如果訓練數據很多,比如在機器翻譯任務里,預訓練的詞向量和隨機初始化的效果沒什么區別(開始的時候好一點,因為比較是相對較好的初始值)。 Children’s Book 類似于完型填空,其實BERT是可以搞的。但是NLP的比賽那么多,Google總不能都做完吧。國內很多AI公司天天發PR稿:我們又獲得了一個世界第一。其實很多外行的讀者并不知道這個比賽只有5個參數選手,可能其中2個還是某個在校學生擠出周末打游戲的時間去做的。

環信AI公開課:OpenAI通用語言模型GPT-2論文解析(圖3)

圖:Children’s Book任務 效果似乎還不錯,離人類的水平相差不遠。 LAMBADA PPL從99.8降到8.6,測試的準確率從19%提高到52.66%。作者不了解這個比賽,不做點評。 Winograd Schema Challenge 63%到70.7%,似乎還不錯。作者也不了解這個比賽,不做點評。 Reading Comprehension 這是最近很火的比賽類型,有很多數據集,這里使用的是CoQA,BERT的baseline是89的F1得分(越大越好),GPT-2的得分是55。這似乎差得太遠啊,但是作者有高大上的解釋:BERT是用來監督數據的,俺們不用訓練數據。有點像考試不及格的學渣對學霸說,雖然你得了89分,但是你天天熬夜背題,俺天天翹課也差點及格了,說明俺比你有天賦。學霸說:那你也天天熬夜背題啊,看看能不能跑分跑過我?學渣說:俺們是搞素質教育的,不搞題海戰術。 Summarization 摘要任務,分越高越好,成績單如下:

環信AI公開課:OpenAI通用語言模型GPT-2論文解析(圖4)

圖:Children’s Book任務 機器翻譯 SOTA的BLEU分(越高越好)33.5,俺不學習也得了11.5。 Question Answering 無監督的效果慘不忍睹。 大翻盤 這是最終大殺器,咱們來PK生成文章了。論文附錄挑選了許多生成的”故事”,作者英語比較差,看不出好壞來。學術界最近對產生式(Generative)模型非常感興趣,尤其是在圖像和視覺領域。不過作者對此并不感興趣,作者是實用主義者,生成花里胡哨的東西并不能解決實際的問題。大家上網隨便一搜,都能找到各種作詩機器人、對聯機器人或者生成某些名人風格的文字。看起來格律嚴謹對仗工整,其實都是毫無意義。當然,也不是說生成的模型完全無用,比如Gmail用模型自動生成郵件的回復,作者試了一下還不錯。不管怎么說,OpenAI是扳回一城了,因此也就有了鋪天蓋地的新聞出來。 代碼 因為沒有中文模型,只能跑英文,所以作者這三腳貓的英語水平還是藏拙的好,就不做點評了。讀者可以自己試試。 git?clone?https://github.com/openai/gpt-2.git?&&?cd?gpt-2 需要安裝Tensorflow 1.12.0(作者試了1.11也是可以的,因為BERT的官方實現要求1.11+): pip3?install?tensorflow==1.12.0 安裝其它依賴: pip3?install?-r?requirements.txt 下載模型: python3?download_model.py?117M 因為模型放在storage.googleapis.com,所以需要科學上網,可以這樣修改代碼,請把”127.0.0.1:1080”改成你自己的代理: $?git?diffdiff?--git?a/download_model.py?b/download_model.pyindex?2a38294..83d6fb8?100644---?a/download_model.py+++?b/download_model.py@@?-15,7?+15,11?@@?if?not?os.path.exists(subdir):??for?filename?in?['checkpoint','encoder.json','hparams.json','model.ckpt.data-00000-of-00001',?'model.ckpt.index',?'model.ckpt.meta',?'vocab.bpe']:?-????r?=?requests.get("https://storage.googleapis.com/gpt-2/"?+?subdir?+?"/"?+?filename,?stream=True)+????proxies?=?{+??????'http':?'http://127.0.0.1:1080',+??????'https':?'http://127.0.0.1:1080',+????}+????r?=?requests.get("https://storage.googleapis.com/gpt-2/"?+?subdir?+?"/"?+?filename,?stream=True,?proxies=proxies)??????with?open(os.path.join(subdir,?filename),?'wb')?as?f: 使用前需要設置編碼: export?PYTHONIOENCODING=UTF-8 原文鏈接:http://www.soyouit.com/contents/itnews/2019-3-12-81153.html --------------------------------------------------------- 免責聲明: 1.本文援引自互聯網,旨在傳遞更多網絡信息,僅代表作者本人觀點,與本網站無關。 2.本文僅供讀者參考,本網站未對該內容進行證實,對其原創性、真實性、完整性、及時性不作任何保證。

本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。

如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com

相關文章

日本美女视频一区| av免费在线电影| 又黄又爽的网站| 伊人婷婷久久| 国产精品女人网站| 亚洲天堂av在线免费| 午夜婷婷国产麻豆精品| 国产成人免费视| 欧美激情电影| 99视频这里有精品| 中国av在线播放| 日本我和搜子同居的日子高清在线| 性做久久久久久久| 国产精品theporn动漫| 18禁一区二区三区| 日本www在线播放| 欧美日韩在线精品一区二区三区| 97在线视频精品| 日韩成人在线观看| 欧美午夜精品一区| 亚洲精品菠萝久久久久久久| 粉嫩嫩av羞羞动漫久久久| 欧美日韩一视频区二区| 大型av综合网站| 天天综合网天天| av免费在线观看网站| 一级毛片免费视频| 黄页在线免费观看| 免费国产阿v视频在线观看| 99久久国产热无码精品免费| 精品视频在线观看免费| 在线观看国产精品一区| 国产又黄又嫩又滑又白| 日韩极品视频在线观看| 日产精品高清视频免费| 91精品国产综合久久久久久丝袜| 午夜精品三级视频福利| 一区二区三区精品99久久| 日韩欧美第一区| 在线免费不卡电影| 亚洲福中文字幕伊人影院| 亚洲国产精品二十页| 国产·精品毛片| 精品一区二区免费视频| av不卡免费看| 欧美福利影院| 自拍偷拍欧美专区| 日韩在线不卡| 色小子综合网| 欧美一级精品| 在线日韩一区| 欧美性生活一级片| 一区二区三区四区高清视频 | 国内精品久久久久久久久久| 国产一级在线播放| 538精品在线视频| 999精品在线视频| 国产女人精品视频| 欧美日韩国产第一页| 色偷偷91综合久久噜噜| 亚洲视频在线观看免费| 日韩电影大片中文字幕| 日韩av影视综合网| 亚洲国产精品成人精品| 精品久久人人做人人爱| 日韩欧美一区在线| 欧美大胆人体bbbb| 精品久久久网站| 亚洲福利视频免费观看| 亚洲级视频在线观看免费1级| 91精品久久久久久蜜臀| 日韩一区二区麻豆国产| 日韩精品一区二区三区在线观看| 日韩视频国产视频| 日韩电影免费在线观看中文字幕 | 1024精品合集| 亚洲在线成人精品| 欧美午夜视频在线观看| 在线亚洲人成电影网站色www| 欧美亚州韩日在线看免费版国语版| 欧美性猛交xxxx免费看久久久| 色综合色综合色综合| 欧美少妇一区二区| 精品国产乱码久久久久久闺蜜| 日韩成人av网| 久久精品最新地址| 欧美一区亚洲一区| 成人午夜一级二级三级| 久久99精品国产一区二区三区| 免费成人在线观看av| 在线免费一区| 日本成年人网址| 手机看片一级片| a视频免费观看| 欧美黄色免费看| 在线观看视频中文字幕| 五月婷在线视频| 91电影在线| 国产毛片视频| av在线播放av| 厕沟全景美女厕沟精品| 久久丁香四色| 亚洲欧洲美洲一区二区三区| 久久字幕精品一区| 91美女在线视频| 五月激情综合色| 欧美v日韩v国产v| 久久天天躁狠狠躁夜夜av| 国产成人精品在线观看| 久久久久久久久久久久久久久久av| 精品美女一区二区| 日韩二区三区在线| 午夜精品福利视频| 精品国产福利| 777777av| 国产精品边吃奶边做爽| www日韩在线| 国产婷婷在线视频| 国产日韩欧美精品一区二区三区| 免费看ww视频网站入口| 中文在线一二区| 国产精品蜜臀| 奇米影视777在线欧美电影观看 | 91国产精品成人| 亚洲人成77777在线观看网| 国语自产精品视频在免费| 成人免费在线视频网站| 视频一区三区| 一级黄色高清视频| 暗呦丨小u女国产精品| 国产一区二区麻豆| 免费91视频| 三上悠亚在线观看| 乱人伦视频在线| 欧美裸体在线版观看完整版| 免费在线看成人av| 一区二区成人在线| 亚洲高清不卡av| 国产精品久久久久av免费| 亚洲午夜在线观看| 国产性猛交96| 中文字幕 日韩有码| 国产精品视频第一区二区三区| 亚洲人性生活视频| 久久夜夜久久| 亚洲麻豆av| 中文幕一区二区三区久久蜜桃| 欧美日韩成人一区| 亚洲丝袜在线视频| 国产精品国模大尺度私拍| 精品久久久久久中文字幕2017| 911国产在线| 亚洲欧美天堂网| 亚洲女优视频| www.国产精品一区| 日韩不卡在线观看日韩不卡视频| 亚洲欧美日韩在线| 日韩一二三在线视频播| 免费精品视频一区二区三区| 少妇伦子伦精品无吗| 中文亚洲av片在线观看| 美女av电影| 成人看片网站| 日韩中文字幕一区二区三区| 亚洲va国产天堂va久久en| 日韩一区二区三区xxxx| 久久综合狠狠综合久久综青草| 韩国三级在线看| 国产成a人亚洲精v品无码| 人人在线97| 99久久久国产| 国产乱码精品一品二品| 欧美精品xxxxbbbb| 亚洲中国色老太| 北条麻妃亚洲一区| www.精品视频| 国产小视频在线播放| 日韩福利视频一区| 91九色综合| 亚洲精品韩国| 色综合天天在线| 国产精品久久一区主播| 不用播放器的免费av| 99re只有精品| yourporn在线观看视频| 999精品视频| 国产精品国产三级国产aⅴ入口| 亚洲香蕉在线观看| 亚洲看片网站| 久久久综合久久久| eeuss影院在线| 91麻豆精品| av不卡在线观看| 亚洲一区二区久久| 国产高清不卡无码视频| 国产盗摄一区二区三区在线| 在线免费黄网| 欧美男女视频| 成人一区在线看| 色偷偷91综合久久噜噜| 精品国产av无码一区二区三区| 国产午夜激情视频| 裸体免费网站| 成人中文视频| 欧美小视频在线| 99理论电影网| 国产三级aaa| 爆操妹子视频在线观看| 亚洲成a人片77777在线播放| 亚洲色图欧洲色图| 国产成人激情小视频| 稀缺小u女呦精品呦| 国产野外战在线播放| 欧美xx视频| 99精品欧美一区二区蜜桃免费 | 亚洲国产一区二区三区| 欧美在线性视频| 欧美人与性动交α欧美精品| 亚州精品永久观看视频| av亚洲一区| 国产亚洲精品免费| 欧美在线视频导航| 亚洲av成人片无码| 九色蝌蚪在线观看| 美女精品一区最新中文字幕一区二区三区| 亚洲女人小视频在线观看| 国产精品入口免费视| 欧美18—19性高清hd4k| 天天干夜夜操| 99热国内精品| 影音先锋亚洲精品| 欧美色综合久久| 日韩欧美一区二区在线观看 | 欧美视频一区二区三区在线观看 | 久久视频在线看| jizz欧美性11| 国产激情网址| 欧美电影免费网站| 亚洲h动漫在线| 精品中文字幕人| 国产无套丰满白嫩对白| 日本在线观看www| 久久国产精品区| 美日韩丰满少妇在线观看| 日韩不卡的av| 免费看ww视频网站入口| 在线视频亚洲专区| 欧美日韩国产精品成人| 亚洲国产精品久久久久久女王| japanese国产在线观看| 2001个疯子在线观看| aaa亚洲精品| 国产成人精品综合久久久| 丁香六月激情综合| 在线观看黄色片| 久久成人av少妇免费| 久久久久久久国产精品视频| 在线观看国产免费视频| 日本调教视频在线观看| 久久av一区二区三区| 久久久99久久精品女同性| 色哟哟视频在线| 亚洲美女在线免费观看| 秋霞午夜av一区二区三区| 欧美激情国产高清| 日本在线观看网址| www.亚洲资源| 成人av高清在线| 成人春色激情网| 国产精品久免费的黄网站| caoporn-草棚在线视频最| 国产精品午夜春色av| 国产精品日韩一区二区三区| 中文字幕人妻精品一区| 亚洲老司机网| 欧美图区在线视频| 无码精品国产一区二区三区免费| 91国内精品久久久久| 欧美a级在线| 久久亚洲综合国产精品99麻豆精品福利| 国产真实乱人偷精品| 校园春色欧美| 久久亚洲免费视频| 久久综合入口| 毛片中文字幕| 99热在线成人| 九九精品在线观看| 欧美极品aaaaabbbbb| 极品av在线| 欧美午夜久久久| 日韩av资源在线| 成人观看网站a| 久久99精品久久久久久国产越南 | 亚洲精品一区二区精华| 日韩va在线观看| 满满都是荷尔蒙韩剧在线观看| 国产精品 日产精品 欧美精品| 91精品在线看| 国产高清视频免费观看| 西野翔中文久久精品国产| 精品视频—区二区三区免费| 亚洲国产欧美视频| 美女国产在线| 亚洲国产日韩在线一区模特| 野外做受又硬又粗又大视频√| 色视频免费观看| 日韩在线播放一区二区| 国产免费一区二区三区在线观看| 一本大道伊人av久久综合| 狼人天天伊人久久| 永久免费精品影视网站| 五月天丁香激情| yw.尤物在线精品视频| 91精品视频网| 插吧插吧综合网| 欧美日韩在线视频免费观看| 精品日本高清在线播放| 一区二区三区免费播放| 高清视频在线www色| 久久久久久久综合色一本| 伊人久久大香线蕉午夜av| 毛片网站免费| 国产91综合一区在线观看| 欧洲精品在线一区| 免费观看成年人视频在线观看| 国产伦理精品不卡| 色播亚洲婷婷| h网站免费观看| 99免费精品视频| 国产精品视频一二三四区| av美女在线| 久久久99久久精品欧美| 女人被男人躁得好爽免费视频 | 国产精品日韩在线播放| 欧美一区二不卡视频| 亚洲精选91| 国产另类第一区| 九九视频九九热| 久久久三级国产网站| 精品国偷自产一区二区三区| 蜜桃专区在线| 亚洲五码中文字幕| 伊人成人免费视频| 爱草tv视频在线观看992| 在线成人高清不卡| 黑人操日本美女| 国产+成+人+亚洲欧洲在线| 欧美猛交免费看| 国内爆初菊对白视频| 天堂va蜜桃一区二区三区漫画版| 久热这里只精品99re8久| 你懂得视频网站| 国产日韩欧美综合一区| 青青在线视频免费| xvideos国产在线视频| 日韩免费性生活视频播放| 成人免费看片98| 日韩免费看片| 91久久精品国产91久久性色| 国产成人精品一区二区免费视频| 成人福利视频网站| 播放灌醉水嫩大学生国内精品| 日韩成人影视| 精品国产乱码久久久久久夜甘婷婷 | 久久综合九色99| 理论视频在线观看| 精品国产精品三级精品av网址| jlzzjizz在线播放观看| 豆花视频一区| 欧洲亚洲在线视频| 精品视频二区三区| 国产欧美一区二区三区在线老狼| 日日摸天天爽天天爽视频| 国产美女情趣调教h一区二区| 日韩精品极品在线观看| 波多野结衣高清视频| 国产精品资源| 中文字幕中文字幕一区三区| 青青草在线免费视频| 欧美一区二区久久久| 色屁屁影院www国产高清麻豆| 99精品热视频只有精品10| 亚洲欧洲精品一区二区三区波多野1战4| 在线播放网站| 91精品国产黑色紧身裤美女| 日韩女优在线观看| 亚洲精品影视| 国产欧美久久久久| 黑人精品视频| 欧美wwwxxxx| 欧美妇性猛交视频| 中文字幕亚洲成人| 毛片aaaaaa| 久久精品一区二区不卡| 日韩欧美在线电影| 麻豆免费在线视频| 色婷婷综合成人av| 国产青草视频在线观看视频| 国产精品久久久久久福利一牛影视 | 欧美顶级xxxxbbbb|