国产又爽又粗又猛的视频-极品尤物被啪到呻吟喷水-一 级做人爱全视频在线看-中国美女一级黄色片-波多野结衣免费一区视频-亚洲一区-日本精品无码一区二区三区久久久-成人av番号网-理论片一级-中国免费黄色片-亚洲三级在线看-亚洲精品乱码久久久久久写真-国产高清在线a免费视频观看

  服務熱線

  13816536734

  公司郵箱

  479498864@qq.com

     名片二維碼

   

AI在3D建模領域重大進展,文字和圖片直接生成3D模型,動了職場哪部分人的蛋糕

發(fā)布日期:2023-06-16 10:46:25   作者 :共建者    瀏覽量 :586
共建者 發(fā)布日期:2023-06-16 10:46:25  
586

文本生成圖片和圖片生成圖片已經(jīng)逐漸取代繪畫師和設計師了,你有沒有想過有一天文字和圖片還可以生成3D模型?科技的發(fā)展只有我們想不到,沒有AI做不到。那么對3d模型領域又會有哪些影響呢?手把手硬核AI教學,趕快收藏學習。


一、文本生成3d模型


3D建模在電影、游戲、工程模擬等領域有著非常廣泛的應用,也是VR和AR應用的基礎。但是建模的時間和成本都是比較高的,制作也需要一定的專業(yè)知識,比如使用特定的3D編輯軟件或者專門的掃描設備,但是現(xiàn)在AI的發(fā)展基本磨平了普通人和專業(yè)人士的差距,讓普通人在專業(yè)領域也能輕松達到了60分的水平。

text to 3d(文本生成3d)image to 3d(圖片生成3d)方向比較成熟應用的有自動生成3D模型的AI應用,例如如下這個網(wǎng)站,可以根據(jù)圖片和文字生成180度的2.5D模型

而真正目前text to 3d比較成熟的開源框架是OpenAI發(fā)布的shap-e開源模型,不僅能根據(jù)文本和圖片來生成3d動畫效果,而且還可以把生成的3d模型導出到3d編輯軟件里進行編輯。

OpenAI Shap-e手把手硬核步驟教學

一、Shap-e介紹


github項目地址:

https://github.com/openai/shap-e



二、colab上部署Shap-e 復制并打開自動執(zhí)行腳本:


https://colab.research.google.com/drive/1XvXBALiOwAT5-OaAD7AygqBXFqTijrVf?usp=sharing#scrollTo=7-fLWame0qJw

按執(zhí)行步驟一步步執(zhí)行

三、參數(shù)修改

batch_size  = 生成的數(shù)量

guidance_scale = 分辨率

prompt = 生成內容指令



四、文件下載并使用編輯器進行編輯使用

在左側文件夾里找到生成的文件并下載使用3d編輯器即可對模型進行修改編輯


OpenAI發(fā)布的shap-e開源模型。

這就結束了?更炸裂的來了,接下來手把手演示如果通過圖片提示來生成3D動畫效果,上車出發(fā)

二、圖片生成3d模型


面三個步驟不變無腦執(zhí)行下去,在第四個執(zhí)行代碼里將內容換成

請直接復制








import torch
from shap_e.diffusion.sample import sample_latentsfrom shap_e.diffusion.gaussian_diffusion import diffusion_from_configfrom shap_e.models.download import load_model, load_configfrom shap_e.util.notebooks import create_pan_cameras, decode_latent_images, gif_widgetfrom shap_e.util.image_util import load_image


接下來找到第六步更改模型,替換圖片解析模型

無腦復制代碼




xm = load_model('transmitter', device=device)model = load_model('image300M', device=device)diffusion = diffusion_from_config(load_config('diffusion'))


別急,快看到終點了

準備一張圖片上傳到content文件夾里,圖片格式.png .jpg

粘貼第四段代碼到標注處

繼續(xù)無腦復制如下代碼






















batch_size = 4guidance_scale = 3.0
# To get the best result, you should remove the background and show only the object of interest to the model.image = load_image("example_data/corgi.png")
latents = sample_latents(    batch_size=batch_size,    model=model,    diffusion=diffusion,    guidance_scale=guidance_scale,    model_kwargs=dict(images=[image] * batch_size),    progress=True,    clip_denoised=True,    use_fp16=True,    use_karras=True,    karras_steps=64,    sigma_min=1e-3,    sigma_max=160,    s_churn=0,)

修改參數(shù)




batch_size  = 生成的數(shù)量guidance_scale = 分辨率img = 圖片保存路徑


別走,最后一步老鐵









復制如下代碼到最后一步render_mode = 'nerf' # you can change this to 'stf' for mesh renderingsize = 64 # this is the size of the renders; higher values take longer to render.
cameras = create_pan_cameras(size, device)for i, latent in enumerate(latents):    images = decode_latent_images(xm, latent, cameras, rendering_mode=render_mode)    display(gif_widget(images))

別憂慮點擊執(zhí)行,就會得到image to 3d模型了,照常按著以上步驟去編輯吧


just do it!


模型
圖片
E
images
聯(lián)系我們
QQ:
郵箱:
地址:
賦能中小微企業(yè),我有資源/需求
479498864
上海市浦東新區(qū)東方路738號裕安大廈3F-R033
電話:
13918330748
云計算支持 反饋 樞紐云管理
回到頂部