英偉達又一次突破了,這么逼真的照片竟然不是來自攝影師或是設計師!
近日,英偉達官方推出 GauGAN2 的人工智能系統,它是其 GauGAN 模型的繼承者,它不僅能根據字詞生成逼真的風景圖像,還能實時用文字P圖!
GauGAN2 將分割映射、修復和文本到圖像生成等技術結合在一個工具中,通過輸入文字和簡單的繪圖來創建逼真的圖像。
Isha Salian 表示“與類似的圖像生成模型相比,GauGAN2 的神經網絡能夠產生更多種類和更高質量的圖像。”
英偉達的企業傳播團隊在一篇博客文章中寫道。“用戶無需繪制想象場景的每個元素,只需輸入一個簡短的短語即可快速生成圖像的關鍵特征和主題,例如雪山山脈。然后可以用草圖定制這個起點,使特定的山更高,或在前景中添加幾棵樹,或在天空中添加云彩。”
例如輸入海浪打在巖石上,模型會根據生成的內容逐漸進行相應的調整,以生成與描述匹配的逼真圖像。
GauGAN2 的生成模式
GauGAN2 有三種繪制模式,可以從不同的輸入生成逼真的圖像。
模式1:用涂鴉生成風景照
模式2:輸入文本生成圖片
這種輸入文本生成匹配圖像的模式也是 GauGAN2 主要的創新,生成的圖像會根據逐漸輸入的文本不斷發生變化,最終生成和文本匹配最佳的圖像。
例如在下圖的示例中,文本首先輸入 sunshine(陽光),生成的圖像中就只出現了一個太陽;之后繼續輸入 a tall tree(高樹),圖像中就出現了樹(且為頂部樹枝,匹配高樹);最后,輸入的全部文本是 sunshine in a tall tree forest ,意為透過森林的陽光,GauGAN2 最終生成的圖像與之相匹配:
模式 3:輸入圖像并編輯部分內容
如果想要抹掉移除的內容,在生成的圖像中會保留剩余的部分,并自動補全出多種新的完整圖像:
這三種模式也可以混合疊加使用,例如在用涂鴉繪畫等生成圖像后,輸入文本進行相應的修改,在下圖中就生成了一座浮在空中的城堡就出現了。
像像外媒ZDNet就惡搞出來了一種神奇的玩法,在已有的風景上畫個人頭—,畫人頭。
在生成這一系列逼真的圖像背后用了什么原理呢?
如何實現?
從 2019 年開始,英偉達改進 GauGAN 系統,該系統由超過一百萬個公共 Flickr 圖像的訓練而成。與 GauGAN 一樣,GauGAN2 可以理解雪、樹、水、花、灌木、丘陵和山脈等物體之間的關系,例如降水類型隨季節而變化的事實。
GauGAN2 是一種稱為生成對抗網絡 (GAN) 的系統,由生成器和判別器組成。生成器用于獲取樣本,例如獲取與文本配對的圖像,并預測哪些數據(單詞)對應于其他數據(風景圖片的元素)。生成器試圖通過欺騙鑒別器來進行訓練,鑒別器則用于評估預測結果是否現實。雖然 GAN 的轉換最初的質量很差,但隨著鑒別器的反饋二不斷改善。
與 GauGAN 不同的是,GauGAN2 是在 1000 萬張圖像上訓練而成——可以將自然語言描述成風景圖像。輸入諸如“海灘日落”之類的短語會生成場景,而添加諸如“巖石海灘日落”之類的形容詞或將“日落”替換為“下午”或“下雨天”等形容詞會立即修改畫面。
GauGAN2 用戶可以生成分割圖,顯示場景中對象位置的高級輪廓。從那里,他們可以切換到繪圖,使用“天空”、“樹”、“巖石”和“河流”等標簽通過粗略的草圖調整場景,并允許工具的畫筆將涂鴉融入圖像。
這是屬于更新迭代的過程,用戶在文本框中鍵入的每個詞都會為 AI 創建的圖像添加更多內容,因而 GauGAN2 才能隨著輸入文本而不斷變換圖像。
結語
GauGAN2 與 OpenAI 的 DALL-E 沒有什么不同。
不過,這兩個模型生成的內容其實不太一樣。
GauGAN2 專注于生成風景照,DALL·E 則更多地生成具體的物體,例如一把椅子或者一個鬧鐘等。
英偉達聲稱,GauGAN 的第一個版本已經被用于為電影和視頻游戲創作概念藝術。與它一樣,英偉達 計劃在 GitHub 上提供 GauGAN2 的代碼,同時在 Playground 上提供交互式演示,Playground 是 英偉達人工智能和深度學習研究的網絡中心。
像 GauGAN2 這樣的生成模型的一個缺點是存在偏差的可能性。例如在 DALL-E 的案例中,OpenAI 使用了一種 CLIP 模型來提高生成圖像質量,但在一項研究中發現,CLIP 對黑人照片的錯誤分類率更高,并且存在種族和性別偏見問題。
英偉達暫不會對 GauGAN2 是否存在偏見給出回應。英偉達發言人表示:“該模型有超過 1 億個參數,訓練時間不到一個月(還在 demo 階段),訓練圖像來自專有的風景圖像數據集。因此 GauGAN2 只專注于風景,研究團隊還對圖像進行審核以確保圖片中沒有包含人的場景。”這將有助于減少 GauGAN2 的偏見。
目前,GauGAN2 已經可以試完,有使用過或是想要去體驗的可以在留言區談論體驗感受呦~