當觀眾走進展場,攝影機捕捉他們的動作,演算法即時分析肢體語言,投影螢幕上的光影隨之變化。這不是科幻電影場景,而是當代新媒體藝術展覽中越來越常見的互動體驗。人工智慧技術正在改寫藝術創作的規則,讓作品不再只是被動展示,而是能夠感知、思考、回應的智慧體。
AI 新媒體藝術結合機器學習技術,讓裝置能即時辨識觀眾行為並產生回應。從影像辨識、姿態追蹤到生成式模型,創作者運用神經網路打造沉浸式互動體驗。本文介紹五個實際應用案例,解析技術選擇與創作流程,並提供工具建議,幫助藝術創作者將 AI 融入作品中,創造獨特的觀眾參與方式。
機器學習為新媒體藝術帶來的三大轉變
傳統互動裝置依賴預設規則運作。按下按鈕觸發聲音,走過感應器啟動燈光。這些反應可預測且固定。
AI 技術改變了這個邏輯。
機器學習模型能從資料中學習模式,而非依循硬編碼指令。這為藝術創作帶來三個關鍵突破。
第一是個性化回應。系統能辨識不同觀眾的特徵與行為,針對每個人產生獨特反應。兩位觀眾面對同一件作品,可能看到完全不同的視覺效果。
第二是持續進化。作品能在展出期間累積觀眾互動資料,調整自己的行為模式。開展第一天與最後一天,裝置的反應方式可能已經不同。
第三是複雜模式識別。AI 能理解肢體語言、情緒表達、群體動態等微妙訊息,創造更細緻的互動層次。
這些特性讓新媒體藝術從機械反應進化為智慧對話。
五個 AI 驅動的互動裝置實際案例
即時姿態追蹤與視覺生成
日本藝術團隊 teamLab 的作品《花與人》運用深度學習模型追蹤觀眾動作。當訪客在空間中移動,系統即時計算肢體位置,在牆面投影相應的花朵圖案。
技術核心是 OpenPose 骨架偵測演算法。
模型辨識人體 25 個關節點的三維座標,每秒處理 30 幀畫面。這些資料輸入生成系統,驅動粒子效果與色彩變化。
觀眾停留時間越長,花朵綻放越茂盛。多人同時互動時,不同的花朵會相互影響,形成有機的視覺生態系統。
情緒辨識與聲音回應
英國藝術家 Lauren McCarthy 的裝置《LAUREN》使用臉部表情辨識技術。攝影機捕捉觀眾臉部,CNN 卷積神經網路分析七種基本情緒:快樂、悲傷、憤怒、驚訝、恐懼、厭惡、中性。
系統根據辨識結果即時合成語音回應。
當偵測到悲傷表情,AI 會說出安慰的話語。察覺到快樂時,則分享幽默對話。這種情感層面的互動,讓觀眾與機器建立更深刻的連結。
技術挑戰在於模型訓練資料的多樣性。不同文化背景的人表達情緒方式不同,需要大量跨文化資料集才能提升辨識準確度。
生成對抗網路創造視覺內容
德國藝術家 Mario Klingemann 使用 GAN(生成對抗網路)創作《Memories of Passersby I》。裝置包含兩個螢幕,持續生成從未存在過的人臉肖像。
GAN 由兩個神經網路組成:生成器與判別器。
生成器嘗試創造逼真影像,判別器評估真偽。兩者不斷對抗訓練,最終生成器能產出高品質的合成肖像。
每張臉孔都是獨一無二的,永遠不會重複。觀眾目睹的是 AI 的創造力展現,而非資料庫中既有影像的重組。
這件作品提出哲學問題:當機器能創造出從未存在的人臉,真實與虛構的界線在哪裡?
聲音辨識與空間敘事
美國藝術團隊 Random International 的《Rain Room》結合聲音與動作感測。觀眾在人造雨中行走,系統追蹤位置並停止該區域的降雨。
後續版本加入語音辨識功能。
觀眾說出特定詞彙時,雨的密度、速度、範圍會產生變化。這需要自然語言處理模型即時轉譯語音為控制參數。
多語言支援是關鍵挑戰。展覽在不同國家巡迴時,系統必須理解當地語言,並將語意對應到視覺效果。
強化學習驅動的機器人互動
瑞士藝術家 Patrick Tresset 的《Human Study #2》使用機器人手臂為觀眾素描。機器人透過攝影機觀察對象,運用強化學習決定筆觸順序與力道。
強化學習讓機器透過試錯改善表現。
機器人繪製數千張素描後,逐漸發展出獨特風格。它不是複製照片,而是像人類藝術家一樣詮釋對象。
每次繪製過程約 30 分鐘,觀眾能觀察 AI 的創作思考過程。機器人偶爾停頓、修正、重新觀察,展現類似人類的創作節奏。
選擇適合的機器學習技術
不同的藝術概念需要不同的 AI 技術。以下表格整理常見應用場景與對應方法:
| 創作需求 | 適用技術 | 訓練難度 | 即時性 |
|---|---|---|---|
| 人體動作追蹤 | 姿態估計模型(OpenPose, MediaPipe) | 低(可用預訓練模型) | 高(30+ FPS) |
| 臉部情緒辨識 | CNN 分類模型 | 中(需標註資料集) | 高 |
| 視覺內容生成 | GAN, Diffusion Models | 高(需大量運算資源) | 中 |
| 語音互動 | 語音辨識 + NLP | 中(可用雲端 API) | 中 |
| 自主行為學習 | 強化學習 | 高(需長時間訓練) | 低 |
選擇技術時考慮三個面向:
-
即時性需求:互動裝置通常要求低延遲回應。影像辨識需在 100 毫秒內完成,生成式模型可接受較長時間。
-
硬體限制:展場環境可能無法配置高階 GPU。選擇能在邊緣裝置運行的輕量模型,或使用雲端運算。
-
資料可得性:自行訓練模型需要大量標註資料。使用預訓練模型能大幅降低門檻。
「技術選擇應該服務於藝術概念,而非反過來。先定義你想創造的體驗,再尋找實現它的技術路徑。」— 新媒體藝術策展人 陳永賢
從概念到實作的創作流程
將 AI 融入互動裝置需要跨領域協作。以下是典型的創作步驟:
-
定義互動概念:明確作品想傳達的主題與觀眾體驗。描繪理想的互動場景:觀眾做什麼,系統如何回應,產生什麼效果。
-
拆解技術需求:將互動概念轉譯為技術元件。需要哪些感測器?處理什麼類型資料?輸出形式是視覺、聲音還是實體動作?
-
選擇或訓練模型:評估是否有現成模型可用。預訓練模型如 YOLO(物件偵測)、BERT(文字理解)能快速部署。若需特殊功能,準備訓練資料並微調模型。
-
建立原型測試:在小規模環境測試技術可行性。驗證模型準確度、系統延遲、硬體效能是否符合需求。
-
整合系統元件:連接感測器、運算單元、輸出裝置。使用 Python 或 Processing 等工具串接各模組。
-
現場調校優化:在實際展場環境測試。光線、聲音、空間配置都會影響感測器表現。根據現場條件調整參數。
-
收集回饋迭代:觀察觀眾實際互動行為。他們是否理解互動方式?系統回應是否符合預期?根據觀察調整設計。
創作者常用的 AI 工具與平台
視覺辨識工具
-
MediaPipe:Google 開發的跨平台框架,提供手勢、臉部、姿態偵測功能。支援 Python、JavaScript、C++,可在手機、電腦、樹莓派運行。
-
ml5.js:建立在 TensorFlow.js 上的友善函式庫,專為創意編程設計。與 p5.js 完美整合,適合視覺藝術背景創作者。
生成式模型平台
-
RunwayML:無需編程的 AI 工具平台。提供影像生成、風格轉換、物件移除等 30 多種模型,支援即時預覽與匯出。
-
TouchDesigner:專業視覺程式設計環境,內建 AI 模組。能整合深度學習模型與即時影像處理,廣泛用於大型互動裝置。
聲音處理工具
-
Magenta:Google 的音樂與藝術 AI 專案。提供旋律生成、音色轉換、節奏創作等模型,支援 MIDI 與音訊格式。
-
Sonic Pi:程式碼驅動的音樂創作工具。可整合機器學習模型,根據視覺輸入即時生成音樂。
硬體選擇建議
小型裝置可使用 Jetson Nano(NT$3,000 起),支援 GPU 加速的深度學習推論。中型專案適合 Intel NUC 配置獨立顯卡。大型裝置需要工作站等級硬體或雲端運算支援。
技術實作的常見挑戰與解決方案
| 挑戰 | 問題描述 | 解決方法 |
|---|---|---|
| 模型延遲過高 | 即時互動要求低延遲,但複雜模型運算慢 | 使用模型壓縮技術(量化、剪枝)或選擇輕量架構 |
| 光線影響辨識 | 展場光線變化導致視覺辨識失準 | 使用深度攝影機或紅外線感測器,減少環境光影響 |
| 多人互動混亂 | 系統無法區分多位觀眾的個別動作 | 加入追蹤演算法(DeepSORT)維持身份識別 |
| 資料隱私疑慮 | 收集觀眾影像引發隱私問題 | 在邊緣裝置處理資料,不儲存原始影像,僅保留匿名化特徵 |
| 長時間運行穩定性 | 展覽持續數週,系統可能崩潰或效能下降 | 實作監控機制,自動重啟失敗模組,記錄錯誤日誌 |
處理這些挑戰需要技術與藝術的平衡思考。
有時候降低技術複雜度,反而能創造更好的觀眾體驗。過於精密的系統可能因小故障而完全失效,簡單穩健的設計更適合展場環境。
倫理考量與創作責任
AI 藝術創作涉及多個倫理面向。
資料使用透明度:若訓練模型使用公開影像資料,應考慮原創作者權益。部分資料集包含未經同意的人臉照片,使用前需評估合法性。
偏見與再現:機器學習模型會複製訓練資料中的偏見。臉部辨識系統可能對特定族群準確度較低。創作者應測試模型在不同群體的表現,避免歧視性結果。
觀眾知情權:裝置收集哪些資料?如何處理?是否儲存?應在展場明確告知觀眾,並提供退出機制。
技術可解釋性:AI 決策過程往往是黑盒子。在藝術脈絡中,這種神秘性可能是創作意圖的一部分,但也可能造成觀眾困惑或不安。
負責任的 AI 藝術創作需要技術理解與人文關懷並重。
未來趨勢與發展方向
AI 新媒體藝術正朝幾個方向演進。
邊緣 AI 普及化:更強大的嵌入式裝置讓複雜模型能在本地運行。創作者不再依賴雲端服務,降低延遲與成本。
多模態融合:結合視覺、聲音、觸覺、氣味等多種感官輸入與輸出。AI 能理解跨模態的關聯,創造更沉浸的體驗。
生成式 AI 民主化:Stable Diffusion、ChatGPT 等模型開源,讓個人創作者也能使用尖端技術。工具門檻降低,創意成為主要限制。
AI 作為共同創作者:不只是執行工具,AI 能提出創意建議,與人類藝術家對話。這改變了創作主體的定義。
永續性考量:訓練大型模型消耗大量能源。未來創作可能更重視效率,選擇環境友善的技術方案。
這些趨勢將持續重塑藝術創作的可能性。
開始你的 AI 藝術創作之旅
技術細節可能令人卻步,但不需要成為機器學習專家才能創作 AI 藝術。
從小型實驗開始。
使用 ml5.js 建立簡單的影像分類互動,或用 RunwayML 生成視覺素材。觀察 AI 的行為模式,思考如何將它融入創作概念。
參加工作坊與社群活動。許多藝術機構、大學、創客空間提供 AI 藝術課程。與其他創作者交流,學習他們的經驗與技巧。
閱讀技術文件與案例研究。GitHub 上有大量開源專案,提供完整程式碼與說明。分析他們如何解決技術挑戰,應用到自己的作品中。
最重要的是保持實驗精神。
AI 技術仍在快速發展,沒有標準答案或固定流程。每個創作者都在摸索自己的方法,定義 AI 藝術的新可能。你的實驗與探索,都是這個領域的寶貴貢獻。
當機器學習遇上藝術創作,產生的不只是新的表現形式,更是對創造力本質的重新思考。AI 能否創作?藝術家的角色如何改變?觀眾與作品的關係往何處去?這些問題沒有簡單答案,但正是探索的樂趣所在。拿起你的工具,開始實驗,讓 AI 成為你創作旅程中的新夥伴。