生成對抗網絡
機器學習與資料探勘 |
---|
生成對抗網絡(英語:Generative Adversarial Network,簡稱GAN)是非監督式學習的一種方法,通過兩個神經網絡相互博弈的方式進行學習。該方法由伊恩·古德費洛等人於2014年提出。[1] 生成對抗網絡由一個生成網絡與一個判別網絡組成。生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡的輸入則為真實樣本或生成網絡的輸出,其目的是將生成網絡的輸出從真實樣本中盡可能分辨出來。而生成網絡則要盡可能地欺騙判別網絡。兩個網絡相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。[2][1][3]
生成對抗網絡常用於生成以假亂真的圖片。[4]此外,該方法還被用於生成影片[5]、三維物體模型[6]等。
生成對抗網絡雖然最開始提出是為了無監督學習,但經證明對半監督學習[4]、完全監督學習[7] 、強化學習[8]也有效。 在2016年的一個研討會上,楊立昆稱生成式對抗網絡為「機器學習這二十年來最酷的想法」[9]。
應用
[編輯]時尚和廣告
[編輯]生成對抗網絡可用於建立虛構時裝模特的相片,無需聘請模特、攝影師、化妝師,也省下工作室和交通的開銷[12]。 生成對抗網絡可用於時尚廣告活動,建立來自不同群體的模特兒,這可能會增加這些群體的人的購買意圖[13]。
科學
[編輯]生成對抗網絡可以改善天文圖像[14],並模擬重力透鏡以進行暗物質研究[15][16][17]。
在2019年,生成對抗網絡成功地模擬了暗物質在太空中特定方向的分佈,並預測將要發生的引力透鏡。[18][19]
電子遊戲
[編輯]在2018年,生成對抗網絡進入了電子遊戲改造社區。對舊的電子遊戲透過圖像訓練,以4k或更高解像度重新建立低解像度2D紋理,然後對它們進行下取樣以適應遊戲的原始解像度(結果類似於抗鋸齒的超級取樣方法)[20]。通過適當的訓練,生成對抗網絡提供更清晰、高於原始的2D紋理圖像質素,同時完全保留原始的細節、顏色。
參見
[編輯]參考文獻
[編輯]- ^ 1.0 1.1 Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua. Generative Adversarial Networks. 2014. arXiv:1406.2661 [stat.ML].
- ^ 能根據文字生成圖片的 GAN,深度學習領域的又一新星. [2018-04-15]. (原始內容存檔於2018-04-15).
- ^ Andrej Karpathy, Pieter Abbeel, Greg Brockman, Peter Chen, Vicki Cheung, Rocky Duan, Ian Goodfellow, Durk Kingma, Jonathan Ho, Rein Houthooft, Tim Salimans, John Schulman, Ilya Sutskever, And Wojciech Zaremba, Generative Models, OpenAI, [2016-04-07], (原始內容存檔於2021-04-22)
- ^ 4.0 4.1 Salimans, Tim; Goodfellow, Ian; Zaremba, Wojciech; Cheung, Vicki; Radford, Alec; Chen, Xi. Improved Techniques for Training GANs. 2016. arXiv:1606.03498 [cs.LG].
- ^ 存档副本. [2017-03-17]. (原始內容存檔於2017-03-20).
- ^ 3D Generative Adversarial Network. [2017-03-17]. (原始內容存檔於2019-10-27).
- ^ Isola, Phillip; Zhu, Jun-Yan; Zhou, Tinghui; Efros, Alexei. Image-to-Image Translation with Conditional Adversarial Nets. Computer Vision and Pattern Recognition. 2017 [2019-06-18]. (原始內容存檔於2020-04-14).
- ^ Ho, Jonathon; Ermon, Stefano. Generative Adversarial Imitation Learning. Advances in Neural Information Processing Systems. [2019-06-18]. (原始內容存檔於2019-10-19).
- ^ LeCun, Yann. RL Seminar: The Next Frontier in AI: Unsupervised Learning. [2019-06-18]. (原始內容存檔於2020-04-30).
- ^ Caesar, Holger, A list of papers on Generative Adversarial (Neural) Networks: nightrome/really-awesome-gan, 2019-03-01 [2019-03-02], (原始內容存檔於2020-04-30)
- ^ 生成式AI:缘起、机遇和挑战, 经济观察报, 2023-01-09. [2023-01-24]. (原始內容存檔於2023-01-24).
- ^ Wong, Ceecee. The Rise of AI Supermodels. CDO Trends. [2019-06-18]. (原始內容存檔於2020-04-16).
- ^ Dietmar, Julia. GANs and Deepfakes Could Revolutionize The Fashion Industry. Forbes. [2019-06-18]. (原始內容存檔於2019-09-04).
- ^ Schawinski, Kevin; Zhang, Ce; Zhang, Hantian; Fowler, Lucas; Santhanam, Gokula Krishnan. Generative Adversarial Networks recover features in astrophysical images of galaxies beyond the deconvolution limit. Monthly Notices of the Royal Astronomical Society: Letters. 2017-02-01, 467 (1): L110–L114. Bibcode:2017MNRAS.467L.110S. arXiv:1702.00403 . doi:10.1093/mnrasl/slx008.
- ^ Kincade, Kathy. Researchers Train a Neural Network to Study Dark Matter. R&D Magazine. [2019-06-18]. (原始內容存檔於2019-05-15).
- ^ Kincade, Kathy. CosmoGAN: Training a neural network to study dark matter. Phys.org. 2019-05-16 [2019-06-18]. (原始內容存檔於2020-04-14).
- ^ Training a neural network to study dark matter. Science Daily. 2019-05-16 [2019-06-18]. (原始內容存檔於2020-04-30).
- ^ at 06:13, Katyanna Quach 20 May 2019. Cosmoboffins use neural networks to build dark matter maps the easy way. www.theregister.co.uk. [2019-05-20]. (原始內容存檔於2020-04-23) (英語).
- ^ Mustafa, Mustafa; Bard, Deborah; Bhimji, Wahid; Lukić, Zarija; Al-Rfou, Rami; Kratochvil, Jan M. CosmoGAN: creating high-fidelity weak lensing convergence maps using Generative Adversarial Networks. Computational Astrophysics and Cosmology. 2019-05-06, 6 (1): 1. ISSN 2197-7909. doi:10.1186/s40668-019-0029-9.
- ^ Tang, Xiaoou; Qiao, Yu; Loy, Chen Change; Dong, Chao; Liu, Yihao; Gu, Jinjin; Wu, Shixiang; Yu, Ke; Wang, Xintao. ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks. 2018-09-01 [2019-06-18]. (原始內容存檔於2019-04-13) (英語).