前段時間國內備寬塌受關注的兩大手機品牌,蘋果、華為相繼發布2019年度最新旗艦手機。無論是iPhone11還是華為Mate30Pro,兩者均基於3D感測技術進行深度強化。3D感測究竟有何魅力,竟讓一眾主流手機品牌如此鍾情?
智能手機廠商鍾情3D感測攝像頭
2017年起至今蘋果一直推崇基於3D感測技術的FaceID,由此實現安全快捷的3D面部識別,可極大提升驗證和支付等環節的便利性。為了實現3D感測與全面屏的完美融合,OPPOFindX採用的是全隱藏式3D攝像頭模組,在解鎖時鏡頭自動彈出進行3D人臉識別,獨特的伸縮設枯明計至今仍被眾多用戶津津樂道。
(手機前置攝像模組裡面的3D感測模組)
當前應用在手機端的3D感測技術方案主要為3D結構光及TOF(光飛行時間法),蘋果、OPPOFindX、小米以及華為Mate20Pro設計上使用的3D結構光技術,OPPOR17Pro、華為Mate30Pro、vivo陸續加入新的嘗試,其3D深感攝像頭均採用TOF技術。基於3D感測應用的創新體驗徹底打開了人們的想像空間,手機廠商加速布局的原因正是看重其賦能智慧終端「看懂」世界的能力。
3D視覺技術:結構光和TOF有何區別?
什麼是3D視覺技術?即是通過3D攝像頭能夠採集視野內空間每個點位的三維座標信息,通過演算法復原智能獲取三維立體成像,不會輕易受到外界環境、復雜光線的影響,技術更加穩定,能夠解決以往二維體驗和安全性較差的問題。目前的智能手機領域採用的3D視覺技術解決方案主要是:3D結構光(StructuredLight)和TOF飛行時間法(Time-of-Flight)。
(3D感測技術可感知物體的3D結構)
3D結構光(StructuredLight)是將激光散斑圖像投射到物體表面,由攝像頭沒巧告接收採集物體表面反射的信息,根據物體造成的光信號變化計算出物體位置和深度信息,識別精度能達到1mm,在性能相當的情況下,結構光比ToF消耗的功耗更少。目前蘋果全系支持FaceID的機型、市面上主流的3D刷臉支付均為3D結構光技術,更為適合應用在近距離面部識別驗證等場景。
TOF飛行時間法(Time-of-Flight)則是通過專用感測器,捕捉近紅外光從發射到接收的飛行時間差來判斷並計算出物體的距離信息,這種方式具有實時性較好的特點,相對3D結構光演算法比較簡單,可測量較遠距離(一般在100m以內),比如華為Mate30Pro推出的「隔空操控」操作功能便基於TOF技術捕捉手勢動作,相對來說TOF更加適合遠距離的應用。兩種技術解決方案各有優勢,適配於不用的應用需求及其領域,可以肯定的是,3D視覺技術已經成為智能終端必不可少的AI「慧眼」。
國內3D視覺技術發展現狀
3D視覺技術在眾多領域具有極高的戰略意義,國內一些雄厚技術實力的企業群雄並起,在該領域展開深入研究,目前中國3D人臉識別落地應用居全球領先水平。值得一提的是,國內3D視覺技術獨角獸奧比中光,是唯一可實現量產結構光3D感測攝像頭的中國企業,3D感測專利數與蘋果、微軟等並列世界前三,其3D視覺模組、演算法以及配套解決方案可廣泛適配於多品牌、多形態的智能終端,更是為3D視覺領域發展開拓廣泛的應用場景。比如OPPOFindX、支付寶刷臉支付便是採用奧比中光3D視覺模組的方案。
(國內首條刷臉乘車地鐵採用奧比中光3D人臉識別技術)
神通廣大的3D視覺技術
除了在旗艦手機以及刷臉支付、刷臉過閘機領域的應用場景布局之外,3D視覺方案幾乎無所不能,在智能家居、智能安防、汽車電子、工業測量、新零售、智能物流等領域發揮重要作用,堪稱賦能產業創新的最大推力。
以我們每個人息息相關的智能家居領域為例,3D視覺可以令智能家電獲得感知物體形態和距離的能力,為機器人增加「眼睛」智能識別不同物體的分類等;3D視覺所衍生的手勢識別、骨骼識別可以讓你用手勢操控家電,開啟智能家居的新時代。
而在工業自動化領域,3D視覺技術同樣有著巨大的商業價值。當機械臂或者機器人利用3D感知物體的大小、形態之後,可以實現對不同形狀的物體進行高度自動化操作,不再局限於處理單一形態的物體,驅動工業生產力迎來創新變革。
不難看出,無論是在涉及衣食住行的民用領域,還是在提高生產效率的工業領域,3D視覺對於提升終端智慧化程度極為關鍵,這也便解釋了為什麼眾多手機品牌如此鍾情於3D視覺技術。一句賦能智慧終端「看懂」世界頗具深意,3D視覺技術在未來大有可為。
Ⅱ 初識AE跟蹤運動與3D跟蹤攝像機、mocha平面跟蹤與boujou
私以為跟蹤的主要工作在於反求出原有襪岩猜實拍與非實拍視頻攝像機的路徑,在此基礎上添加新的物體,與攝像機路徑與物體運動相匹配。
跟蹤是諸多工作的基礎,諸如視頻影像的插入與移除、視頻告型穩定、建模。
而AE跟蹤運動與3D跟蹤攝像機、mocha、boujou在跟蹤上具有典型性,特別是mocha與boujou在處理畸變鏡頭素材的細節上更具對比性。
AE是Adobe公司出品的一款合成軟體,業界更常以「動態PS」冠之,它內置的「跟蹤運動」插件屬於手動跟蹤,它的跟蹤點由三部分組成,最外面是搜尋框,其次是特徵區域,最裡面是附加點。
AE點跟蹤的工作原理是通過在特徵區域中尋找最明顯的特徵點,而形成跟蹤路徑,而為了避免由於物體的運動或者攝像機的運動,使得跟蹤失敗,所以事先需要確定搜索區域,而附加點的存在更像是後續效果與圖層位置的輔助。
3D跟蹤攝像機可以對視頻固定物體中特徵明顯的區域自動進行跟蹤。
Boujou是一款專業的攝像機跟蹤軟體,曾經獲得艾美獎的殊榮,它提供了一整套攝像機路徑跟蹤的解決方案,雖然在2009年已經停止對它的更新,但在高校教學與實際工作當中,仍有一批人在使用。
它既能進行自動跟蹤、也可以進行手動跟蹤。
無論是哪種跟蹤,皆是先生成二維跟蹤點,後生成三維跟蹤點與虛擬攝像機。
三維跟蹤點與虛擬攝像機是通過攝像機解算工具生成的,解算工具通過幀與幀之間三維跟蹤點或者靜止畫面位置等變化生成攝像機的諸多信息,包括攝像機的焦距、位置與旋轉等信息。
切換3D空間,可以看到眾多的三維跟蹤點匯成了視頻中的物體的分布,比如哪裡是牆、哪裡是桌子,一目瞭然。
這些跟蹤點可以輔助後期在三維軟體中進行建模工作。
Boujou中的跟蹤與AE中的點追蹤是極其相似的,皆是辨識每一幀畫面中具有特徵的區域,生成跟蹤點。
不同的是,Boujou中手動跟蹤最內部的跟蹤點與AE中的附加點並不能劃等號,它就是在當前那個區域生成的攝像機路徑中的點或者說由於像素的變化而形成的跟蹤路徑;另一個不同的是AE雖然也具備自動跟蹤的功能即3D跟蹤攝像機,但是在不依靠插件的情況下,是無法與三維軟體協同合作的,也無法在三維空間中單顯跟蹤點,在定義世界坐標、處理畸變素材等方面,並不能與專業的跟蹤軟體相棗褲提並論,不過AE可以在E3D等三維插件的輔助下,在跟蹤素材之上添加三維物體。
對於一個成熟的跟蹤軟體,必須滿足可以對各種素材的處理,尤其是畸變素材的處理,boujou的解決方案是通過在視頻中手動添加校正線,從而對素材進行修正。
而mocha pro的解決方案是通過在某一幀中自動尋找需要添加校正線的線段。
兩種方案各有千秋,只是在處理某些素材的時候,boujou更人性化。
AE與boujou皆可算是基於點追蹤,而mocha pro則是基於平面跟蹤,它跟蹤的並不是特徵區域,而是一個texture即材質,從而可以進行偏移跟蹤與3d跟蹤。為跟蹤工作提供了更多的可能性。
Ⅲ 三維激光雷達在無人駕駛中的應用研究背景和意義
三維激光雷達在無人駕駛中的應用:
1、研究背景:隨著科技的發展,時代的進步,無人駕駛汽車逐漸興起,然而對無人駕駛汽車周圍的環境進行探測便成為了一項十分重要的問題。
2、意義:通過檢測目標物體的空間方位和距離,提供目標的激光反射強度信息,提供被檢測目標的詳細形狀描述,在光照條件好的環境下表現優秀,而且在黑夜和雨天等極端情況下也有較好表現。
實際應用分析:
1、定位:在一些城市、建築和樹比較多的地方,以及進隧道、出隧道,它的信號容易中斷。同時,也有用攝像頭等感測器感知外部環境、構建環境模型並利用該模型確定車輛所在的答碰位置的方式,但其對環境的依賴比較強,比如逆光或雨雪天氣下,這種定位容易失效。
2、障礙物的檢測和分類:通過點雲做關聯目標,知道上一幀和下一幀是否屬於同一個物體,再進行目標跟蹤,輸出目標跟蹤信息。
3、用於先進駕駛輔助系統:利用安裝於車上的各肆局式各樣的感測器, 在第一時間收集車內外的環境數據, 進行靜、動態物體的辨識、偵測與追蹤等技術上的處理, 從而能夠讓駕駛清雹談者在最快的時間察覺可能發生的危險, 以引起注意和提高安全性的主動安全技術。
Ⅳ 什麼是3D攝影
3D拍攝通過兩台攝像機模擬人的眼睛,拍左眼和右眼的畫面。目前兩個攝像機的排列方式是兩種,一種是水平的並排,另一種是垂直上下的方式。它們之間的距離一般跟人的眼睛瞳孔差不多,60-65毫米,拍的時候可以根據近景或者遠景調整兩個攝像機之間的距離。晌輪很重要的問題是確保兩個攝像機之間的光圈、焦距和亮度一致,否則拍出來的兩個畫面人眼看起來會有很多不適的感覺。當然現在很多攝像機都通過電纜機械自動調節,但很難保證兩個完全一致。現在有些研究,比如說兩台攝像機之間位移差多少可以接受,亮度差多少可以允許,這也是將來做3D測試測量的標准和主要的內容,還有雙眼垂直之間的差別和亮度的差別有多少對人的感覺不會那麼明顯。另一個問題,運動的物體要確認拍的時候左眼和右眼都有,如果運動物體拍的時候左眼或右眼沒有,再合成的時候宴謹雀物體看起來就很奇怪了,疊加不上。一般來說背景可以左右眼之間有差異,但運動的物體要確保落在左右攝像機拍攝的區域之內。
人的雙眼因為相晌早距有一定距離60-65毫米,所以在看特定事物的時候,用左眼看到的影像和用右眼看到的影像有所不同。就是這種角度不同的兩個影像在大腦里合成後才會讓我們感到立體感。
所謂的3D是視差產生的左右位移,最後才會有3D的效果出來。視差有四種:零視差,左眼和右眼看到的距離一樣;正視差是右眼在左眼之前,一般畫面在屏幕的後面;負視差是右眼看到的畫面在左眼的左邊,負視差看到的畫面應該是在屏幕的前方;正常的兩眼不能有分散的視覺,要避免拍的時候出現散的視差狀況出現。零視差一般是電影或者電視的屏幕,到底哪個算屏幕?零視差的點就是電影屏幕和電視的屏幕,如果畫面要出屏得以這個為參考,入屏也得以這個為參考。正視差是右眼在左眼的右邊,它的點落在屏幕的後方,畫面呈現出來的效果是在屏幕的後面位置。負視差畫面是在零視差定義的屏幕前方,右眼看的畫面是在左眼的左方,物體全在屏幕的外面,會產生懸空的感覺,朝視覺方向飛過來。分散的視差人眼不會散開,真正拍的話不會有這種畫面出來。
Ⅳ ae實拍三維反求相機的意義
通過軟體對實拍的畫面進行分析,推算出跟蹤點,再利用算出的跟蹤點的一些特徵,在三維軟體中來推算出攝像機真實的運動軌跡,以及相應的空間信息、鏡頭參數。
反求流程:1首先確定鏡頭的運動類型鏡頭是平移運動,旋轉運動,2確定相機的敏磨卜光圈,焦距:計算出鏡頭畸變的參數,先將畫面進行畸變矯正3添加追蹤節點,盡量使用手動添加追蹤點,一個一個追蹤(6個高質量的追蹤點遠勝一堆不大精確的點)4將追蹤點追蹤出來以後放大追蹤框,對追蹤點的精度進行手動優化,調整個別楨的位置5對追蹤場景進行解算。6對齊攝像機與場景的位詈。7輸出追蹤結果,和stmap8導入合成軟體,進行游皮測試。
攝影機運動軌跡反求技術。它的出現使數字特技合成技術中的運動匹配功能趨於完整,也使創作人員在創作過程中能夠更方便、更精確的進行運動畫面的合成。在後期合成階段,傳統的畫面跟蹤技術只能跟蹤「畫面內」物體的運動,而對於「畫面外」的攝影機運動則顯得無能為力,同時,對畫面中被跟蹤物體的透視變化,也只能通過「四點跟蹤」技術模擬出來,這和實橋穗際拍攝中的物體透視變化有本質的區別,因此當被跟蹤物體出現被遮擋或出畫的情況時,就往往無法完成精確的跟蹤操作。
Ⅵ 三維高速攝像解析法是什麼
本發明涉及三維位移測量技術,具體涉及一種高速攝影測量三維位移的方法。
背景技術
三維測量技術廣泛用於工業生產,機械加工製造,跟蹤定位等各個領域,是一項十分重要的技術。中國專利zl201310675316.6公開了一種可測豎直位移的三維光柵位禪衫移測量系統,其局限在於光柵在一般情況下安裝不便。中國專利zl201510024111.0公開了拉線賀大腔式位移感測器測量三維相對位移方法,該方法將三個位置已知的拉線位移感測器的拉線拉伸到同一個測量點,再利用確定的拉線長度確定物體的空間位置。但是,該方法在動態測量中會因為拉線沒有沿著拉線感測器的出口平行的方向拉伸和收縮而導致較大的摩擦同時帶來較大的時間延時以及感測器較大的磨損。此外,還有激光位移感測器可以測量位移,但是激光位移感測器價格昂貴,安裝困難。
落震試驗中某桿件呈現出明顯的三維運動,其中一端沿直線運動,另外一端是自由端。由於運動過程十分劇烈並且伴有劇烈撞擊,因此現有的測量設備不能滿足要求。一台高速攝影機,可以通過仿燃多個輔助測量點測量三維位移,但是會造成較大的景深誤差。如果被測量的構件比較小且無法安裝多個輔助測量點,那麼一台高速攝影機是無法測量三維位移的。而測量該桿件端點的三維位移對結構設計和優化有著十分重要的意義。
Ⅶ 【科普向】攝像頭(二)之3D攝像頭淺解
什麼是3D攝像頭
通過 3D 攝像頭獲取到的數據, 能准確知道圖像中每個點離攝像頭距離,這樣加上腔缺該點在 2d 圖像中的(x,y)坐標,就能獲取圖像中每個點的三維空間坐標。通過三維坐標就能還原真實場景,實現場景建模等應用。
簡單的說,就是有三維空間概念的攝像頭。
目前的主流3D攝像頭
當前在手機上主要有兩種成像技術。
一、結構光
是一種主動式光學測t技術,其基本結構光原理是由結構光投射器向被測物體表面投射可控制的光點、光條或光面結構獲得圖像,通過系統幾何關系,利用三角原理計算得到物體的三維坐標。結構光具有計算簡單、體積小、價格低這些優點。
目前主要的結構光有散斑結構光(也就是光點投射)、編碼結構光和機械結構光。
散斑結構光:蘋果,華為
編碼結構光:小米
機械結構光:oppo
目前網上原理清晰的只有OPPO採用的結構光供應商奧比中光毀備,所以下文只列舉奧比中光。
奧比中光結構光 :採用特定波長的不可見的激光作為光源,它發射出來的光帶有編碼信息,投射在物體上,通過一定演算法來計算返回的編碼圖案的畸變來得到物體的位置和深度信息。
二、ToF(飛行時間)
什麼是ToF?
感測器發出經調制的脈沖紅外光,遇物體後反射,感測器通過計算光線發射和反射時間差或相位差,來換算被拍攝景物的距離,以產生深度信息,此外再結合傳統的相機拍攝,就能將物體的三維輪廓以不同顏色代表不同距離的地形圖方式呈現出來。
ToF的應用?
ToF攝像頭的應用包括基於激光的非掃描激光雷達成像系統、運動感測和追蹤、運用於機器視覺和自動駕駛的物體檢測以及地形測繪等。
ToF實質
測量光線的飛行時間 。
(測量方法)
3D攝像頭到伍余辯底能幹什麼 ?
1提供AR服務
2提供3D視覺
3金融級人臉支付
4手勢操作
5 3D建模
對未來預期
3d攝像頭前景無窮,但是目前的生態並不能充分發揮他的功能,而目前他的精度也不夠高。
但不可否認這項技術在手機上的應用漸漸趨於成熟,未來依然有廣闊的前景。
我們作為一個新團隊十分缺乏經驗,可能會存在種種疏漏,還請各位大佬嘴下留情,反饋問題。感激不盡!
文/ M.韋伯
圖/網路
小蓬軟體工作室
Ⅷ 影視製作中攝像機運動軌跡跟蹤技術的應用
影視製作中攝像機運動軌跡跟蹤技術的應用
在影視製作中將真人實拍畫面與計算機製作的三維特效場景合成在一起,往往需要隱並計算出實拍畫面的攝像機運動,即攝像機運動軌跡跟蹤技術。以下是我搜索整理的關於影視製作中攝像機運動軌跡跟蹤技術的應用,供參考閱讀,希望對大家有所幫助!想了解更多相關信息請持續關注我們應屆畢業生培訓網!
隨著影視後期製作技術的發展,觀眾能在影視作品中看到各式各樣的特效場面。其中攝像機運動軌跡跟蹤這一技術在特效場面中又有著舉足輕重的作用,大部分的特效製作都需要在拍攝後進行攝像機運動軌跡跟蹤(以下簡稱為鏡頭跟蹤),其目的是為了給後期製作創造一個能把計算機生成的三維素材融入真實鏡頭中的環境(反之亦然),使計算機生成的機器人或者生物的運動與實拍鏡頭合成後都像是真實的表演。
一、攝像機運動軌跡跟蹤技術的原理
鏡頭跟蹤技術的使用是在70年代,由喬治盧卡斯和其他特技先驅所開創的,最早是機械跟蹤系統,到了90年代由於計算機技術的飛速發展而產生了攝像機運動軌跡反求跟蹤技術,兩者的使用都是為了解決二維畫面跟蹤技術只能單一的對被拍攝體進行跟蹤,而對於電影攝影的另一大主要運動——攝影機運動無能為力的局限性,所採用的解決辦法。在三維特效影片製作中,要將計算機生成的三維素材真實的融入實拍鏡頭,首先要做的便是鏡頭跟蹤。這一技術解決了二維畫面跟蹤不可用於三維跟蹤合成的問題,使整個數字特技合成技術中的攝像機運動匹配功能趨於完整。
攝影機運動軌跡反求技術的原理是計算機通過對二維畫面進行像素檢測、畫面內元素的運動分析,得到原始景物在虛擬三維坐標中前後左右的位置信息和縱深關系,進而通過構建三維虛擬拍攝場景找出原始拍攝時攝影機運動的軌跡。經運算一旦模擬出攝影機原始運動軌跡,那麼當計算機生成的三維圖形需要合成到實拍的攝影畫面中時,為三維計算機圖形所設置的虛擬攝影機可以與原始攝影的攝影機同步運動,因而合成景物也就可以無縫地跟隨實拍景物運動了。
設想一個典型的特效鏡頭:導演慧爛想要得到一個CG怪物從一幢樓中破窗而出,穿越街道後進入一條小巷的場面。因為CG怪物會和大樓的窗戶有一個相互影響,所以特效總監會要求用三維模擬真實的窗戶破碎效果。在拍攝當天,導演會以藝術的角度來考慮這個特效鏡頭中的場景以及攝像機位置,例如如何考慮被怪物破窗而出的大樓在畫面中的位置,盡管現場拍攝的時候沒有窗戶。導演和攝影師會在正式開拍前多次練習攝像機的運動,假想怪物橫穿街道的場面。當導演對鏡頭滿意之後,便會將其數字化然後交給後期製作去增加特技。當後期製作組收到影片後,他們需要動畫師來調試怪物的動作以及一個技術導演處理窗戶破碎的特效。在這之前,必須由鏡頭跟蹤工程師來事前進行匹配運動畫面。工程師必須確保真實的攝像機的運動軌跡與三維場景的虛擬攝像機運動軌跡完全一致。考慮到窗戶需要被怪物撞碎,如果它在影片中的透視位置與三維場景並不匹配,例如當攝像機往左運動時窗戶依舊停留在原位,很明顯就能看出這個鏡頭穿幫了。
二、攝像機運動軌跡跟蹤技術的應用流程
將計算機生成的素材與真人實拍鏡頭合成對於電影及虛擬現實等相關產業來說是一項非常重要的技術。用鏡頭跟蹤工程師的眼光來看,當一架攝像機在拍攝一個場景時,它基本上在做一件事:將所拍攝的三維空間轉化前攜漏為二維平面。而鏡頭跟蹤的目的則是完全相反的,工程師需要通過軟體的精確計算還原當時攝像機所拍攝的三維場景,並在計算機中模擬出來,而連接兩者的關鍵就是攝像機。
鏡頭跟蹤的方式有許多,首先評估需要跟蹤的影片片段以便選擇最佳的跟蹤方案,很多時候這個過程被遺漏,這很有可能在之後的進程中花費更多的時間。然後,在攝像機跟蹤軟體(或運動匹配軟體)中加入前期拍攝的參數進行匹配運算,其中主要包括鏡頭焦距、記錄幀率、運動模式,以便更精確地還原真實拍攝時的場景,就如同邏輯推理,更多的信息能讓過程變得容易一些。
在五、六年之前,鏡頭跟蹤工程師需要考慮所有攝像機運動的內在外在因素,對於不同的場合選擇不同的`跟蹤方法。現在,科技的發展使得跟蹤軟體運用了一個叫做“照相測量法”的技術,大大提高了軟體的智能跟蹤水平。通過軟體的運算能夠得到一個運動的虛擬攝像機和三維場景數據。之後,工程師們依據這些數據在二維的平面內重新構建三維空間,例如將影片中的二維平面大樓和馬路以三維空間的方式構建,這樣跟蹤就算完成了。
接下來是最重要的環節,工程師們需要測試跟蹤的鏡頭是否如實貼合真人實拍,所創建的三維空間及虛擬攝像機是否完美匹配真實世界。這時候,使用跟蹤軟體,將其自帶的測試物體擺放在重構的三維空間中。失敗的跟蹤往往非常明顯就能夠看出來,比如在播放的過程測試物體發生了漂移或者抖動。反復測試跟蹤是否成功是非常有必要的,因為失敗的鏡頭跟蹤將在整個後期製作流水線中一直被使用,直到最後合成輸出的時候才能夠發現,出現這樣的情況是非常可怕的,特效藝術家和動畫師將不得不重新更改特技,所花費的時間和精力對於一部影片的製作周期來說將會造成很大壓力。
最後是將跟蹤完成的場景文件轉交給工作流程下的其他藝術家們。其通常包括三維場景坐標和大小、必要的角色和設施以及合理的命名規則。一個井然有序的跟蹤文件能給接手處理的其他藝術家們提供方便,同時跟蹤工程師們也不需要在事後向他們詳細解釋,這樣節省了許多不必要的時間。
綜上所述,攝像機運動軌跡跟蹤技術在特效場面中佔有一席之地的重要原因是,數字技術運用於電影特技需要解決的基本問題之一就是運動鏡頭中攝像機軌跡的跟蹤匹配。而在特效影片中,如果一直使用固定鏡頭則不容易達到影片所追求的藝術效果。鏡頭的特效合成是將來源不同的計算機生成的素材以正確真實的方式融入在實拍鏡頭中。
綜上所述,攝像機運動軌跡跟蹤技術對這個行業有著舉足輕重的影響。電影院里的觀眾們在為精彩的特效而大呼過癮同時,也許並沒有注意到影視特效藝術家們的工作。而恰恰是這些默默無聞的鏡頭跟蹤工程師們的努力決定了這些特技的效果。他們使觀眾看到的一切特效成為可能,這是電影拍攝中不可缺少的一環。
;