LiDAR & 雷射感測
在工站裝上一顆鏡頭,錄製下來的影像資訊,即是 AI 學習辨認產線的基礎,透過不斷提供 AI 大量的影像資訊,讓它「看」得越多,AI 模型能訓練得越好,但是,能建立出一個適合產線管理的 AI 模型、並持續優化,包含了幾個前提...
Read more18 December 2023
AI 視覺擁有極大的動能,幫助工廠數位化產線資訊,達到智慧製造,但需要保有對 AI 正確的認知,以及適當的基礎建設準備,才有可能發揮 AI 潛能。
AI 總監 Kuei 揭示 AI 智造的關鍵核心,暢談智慧製造必知的 AI 應用實踐。
今天很開心可以邀請 Kuei 來到 PowerTalk 第 4 集,Kuei 是 PowerArena 的 AI 總監,從過去在碩博士的研究開始,就非常專注在電腦視覺、影像處理領域上。對於如何透過有限的影像資訊,去重建物體、重建空間,排除光線、陰影等影像上的限制,以便達到更精確的物體識別、物體追蹤等等,Kuei 在學術領域上面,有非常深厚的知識研究基礎。再後來到業界的產業應用,不管是電子製造產業,或者是以人工智慧為基礎的車載軟體,具備很深的電腦運算知識,讓他成為我們這一集 PowerTalk 最適合對談的對象。
我們一直都很希望談談的一題就是 AI 人工智慧,這是一個很廣的概念,搭配前陣子 OpenAI 掀起的熱潮,大家對這個詞彙又賦予了不一樣的期待還,所以想要請 Kuei 幫我們說說 AI 這個概念,我們要怎麼著手去認識?常常聽到跟 AI 配在一起的機器視覺、深度學習,這些到底是什麼?
Kuei:我們先從 AI 開始聊,人工智慧在 computer science 領域裡已經研究超過 50 年以上,如果照教科二書,最早大概已經是從 70 年前開始,我們知道人工智慧已經走了這麼久,那走這麼久的東西,似乎你還覺得他非常的 stupid,大家覺得他還是沒有想像中那麼聰明,就是當客戶發現,哎為什麼這個也不行那個也不行?**目前的發展跟大家對人工智慧的期待,其實還是有一些落差的。**早期給人工智慧的概念,它是一個完整的智慧題,應該叫智慧還是一個智慧的東西,他可以自己做感知做判斷做決策,當然在這裡不容易達成,在 CS 領域的話,我們在做一個判斷,有一個最有名的叫 Turing test 吧,那就是我們測驗證一下,說你能不能判斷出來說,目前跟你對話的這個人,到底是真人還是是機器人?那是最有名的一個測試啊,這個東西也玩了非常多年了,但這幾年拜所謂的深度學習知識,深度學習背後其實有所謂的類神經網路,那類神經網路顧名思義,就是他是一個模擬人類神經在運作的方式,去設計出來的一個網路架構,他的角色方式,也是在學習人的神經網絡的方式在做,那類神經網路其實這個概念被提出來,然後開始有很長的嘗試,他已經非常非常多非常多年之前了,至少就我的了解,也是三四十年以上的歷史。現在所謂的 AI 之父,三個人裡面,其實他們是在早年的時候,最早開始做這些事情的人,在當年在一體限制之下,他們做完一次神經網路的訓練大概是 1 個月以上,所以這東西變得非常難做,因為你一個月訓練完之後,才能驗證出你的時間設計是不是錯的、東西有沒有問題,那硬體的限制導致於這條路線一直被放在學術領域上面,無法真的落實到應用上面去。這幾年拜顯卡 graphics 卡,這硬體的突破,所以這個東西大幅度的成長了,以往訓練一個月以上,你可能可以在一個禮拜內就把它做完了,所以整個研究跟進展會大幅度的突破,他真的有機會應用在我們實際上的環境裡面。因為如果你訓練很久,代表說他在做決策過程當中,以以往的硬體來講,他也會非常的久,你就不可能說我看到一個東西之後,過一天再做反應吧,那實際上不可能利用的,所以這個硬體限制就變成是這個發展的一個很關鍵的突破。在所謂的computer這個領域裡面,軟體跟硬體是交錯的,硬體出來之後會大幅度的讓軟體發展,但是發展到一段時間,又被硬體限制住,他就會挺住了,等到硬體再突破的時候,軟體就會再上去。很多概念其實已經出來非常獨立,跟人工智慧一樣,他出來很久,但是我們受限於硬體,所以他無法被突破。
Kuei:我們再來提到一下人工智慧的發展歷程,這幾年透過顯卡的進步之後,已經大幅度突破,但是跟傳說中想像中的人工智慧,還有一段距離,如果想像中人工智慧是包含了這個決策的過程,那目前我們能做到的,其實做的比較好就是感知的部分,這段時間有在提 generative AI 生成式的AI ,但是即便是生成式,他也還不到所謂的創造力這個程度,他某種程度像是累積了大量過往的東西,然後長出一個類似根據過往經驗而生存出來的東西,但是這個東西,對以往來講,已經是一個非常大的技術突破了。 這個是這幾年的AI的情況,顯卡突破是一個突破,對硬體要求非常大,你希望他做越複雜的事情,硬體的需求也是越大,這個就是很明顯 AI 目前的情況,在我們應用在各個領域上面的話,可以想像是,以往 AI 還沒有起來之前,這個判斷的定義都是來自於人給他的,傳統機器學習就是你定義說我要認識一個蘋果,那我定義了形狀顏色,因為你只有鏡頭,所以沒有法定義香味或觸覺,但是你可以定義形狀顏色,甚至再更進一步定義輪廓這些特徵。 你進去做學習,學習完之後,給他看大量蘋果圖片,他就會決定說OK,我看到什麼樣的顏色,什麼樣的形狀,他就有多少的機會是蘋果,接下來你餵給他一個東西,他就可以告訴你這是不是蘋果。
Kuei:他要根據什麼東西做判斷,那是人決定的,進入深度學習之後,因為我們人也不是只靠這個東西來判斷他是不是蘋果,但其他的判斷方式我們無法描述,太抽象了,但是深度學習的改變就是在於說,我們已經可以用類神經網絡的方式,讓電腦自己去尋找它的抽象。
Kuei:這幾年在發展一個東西叫做可解釋 AI,explainable 的 AI,這個還在比較像是 2D stage,對我們來講就是電腦理解什麼抽象的概念,那個我們拿出來看不見看得懂,這個其實也跟人的行為有點像,我們有時候很難描述說,為什麼我認為這種叫做蘋果,所以這幾年發展,託一下前輩,英業達的陳維超老師,他講說當你可以明確定義東西的話,你不一定要 AI 來做,但是當你今天的目標越抽象的時候,那你就越適合用 AI 做。我們環境有很多變化,這些變化其實你很難給他完整的定義,比如說這個物體在光照、幾度之下,反應出來什麼顏色,定的很死你才會準確的抓,但是這個東西往往很難控制,所以如果通過深度學習的話,這些難控制的東西,還有很大的變異,這些透過機器學習讓電腦去學起來,我們某種程度上就可以掌握,可以比較比之前更好的掌握說,這個東西到底是不是你認知的那個東西,可以控制很多環境變化。
剛講到 AI 人工智慧的感知,其實是現在發展很重要一塊,但這感知很受限,因為沒有人的觸覺沒有人的味覺或是嗅覺,去補足我們對某個物體的建構。回歸到 AI 視覺,AI 視覺在製造領域,在工廠產線上面的部署會長什麼樣子?剛剛講到因為有很多抽象的變因在,那這些變因對工廠來說會是什麼?
Kuei:工業4.0的概念提出來的時候,其實是想要對整個工廠做數位化,那包含你的鏡頭可以捕捉整個工廠,在發生的事情、所有微小的變化,這是個理想狀態。我們如果可以舖一個全景的鏡頭的話 ,不止生產的狀況可以控制,包含工廠的安全、整個工廠的運輸流程。你設計的路線是不是今天被料卡住了,或是傳遞的路線卡住了,導致生產效率沒那麼好,這個東西如果在完整的數位化架構起來,這東西都是想像中可以被控制的,可以讓他效能增加。
Kuei:比如說我不是產線有問題,不是動線有問題,理想狀態是可以透過視覺來做到好,但是實際上我們面臨什麼問題呢?你可以想像一個鏡頭,現在大部分情況是固定鏡頭,很難 zoom in、zoom out,所以可以看大就不能看小,看小的東西就看不到全局,導致說,如果你為了看到整個生產情況,你就要佈有大大小小的鏡頭。 我們可以對照一下之前的 Amazon 的無人商店,你可以看看放了多少鏡頭在裡面,對照起來,工廠可能比無人商店要看的東西更多,你要佈多少鏡頭在裡面,這個東西就會牽扯到工廠的基礎工程能不能負荷,工廠裡面的網路、storage,甚至包含 AI 要用的 server、顯卡有多少,這些東西都是成本。以目前工廠生產來講,每年的預算有限,能不能做這件事情,要架構這些基礎建設需要花多久,這就是工廠目前遇到的限制情況。
Kuei:那不可能全部做,哪些事情是要優先做的,就我來看的話,看到蠻多現場最大的問題就是,基礎建設準備好了沒,很多工廠都告訴我們,今天網絡有問題。你有沒有準備好這麼大的位置,來存過往的資料,其實很多時候你還不見得要 AI,就可以發現以往的問題了,然後這個東西叫做生產履歷,東西要錄下來,回去看就發現,現場情況跟我理解的不一樣,因為只要是人,就有人的智慧,人的智慧就會覺得說你告訴我要做那麼多步驟,真的有必要嗎?我這樣做不是快很多嗎?我就可以有時間休息,或者說才能提高,就可以得到獎金。結果這導致什麼,就是你告訴他,你做這些事情你要完整的12345全部做,但是讓他可能就是跳著做135或者是145,2跟3這東西我不做也可以把東西做好啊。這個東西其實不透過鏡頭長時間錄影,你看不到的。 光這個東西其實工廠就能判斷,為什麼今天生產效能上不去,為什麼良率上不去,光生產履歷錄影下來可以回放可以追溯,就可以看到很多你以前不知道的事情。當累積了這時候你會發現說 OK,因為 AI 成本很高,但是他還可以幫你做很多 routine 的事情,比如說一天錄下裡面有這麼多,那當你今天發現有幾件事情是關鍵需要看的,那我們把這些東西透過 AI 學習,你就等於是請一個機器人,幫你 24 小時看工人到底有沒有做這件事,比如說他就是喜歡偷2 這個步驟,80%的工人熟練了之後就把 2 工作省掉了,你就希望看這件事情,那我就幫你訓練,以後所有的生產裡面他有沒有 2,你沒做 2 這件事情,我們就可以用 AI detector 去偵測說他到底有沒有做這件事情,如果沒有,我們就把它標起來,你回去可以看歷程,你的生產履歷,他到底有沒有做。
剛講到是一個很理想的狀態,如果是有預算的工廠,有足夠硬體設備的工廠,他們在前期的佈置都完善的話,AI 可以幫忙做到的是很多的,但在大部分現在有的產線狀態,都是受限於這些前期的前置工程,生產履歷的前置工程。剛還講到說標註這個部分可以去做優化,常常聽到 AI 訓練要配合標註,標註到底是什麼?然後這個標註跟剛剛講到的,人有很大的變因,人的聰明我們要去做管理,標註跟這個又有什麼樣的關聯?
Kuei:成熟的AI是所謂的監督式學習,監督式學習像是老師教學生,我教什麼你學什麼。標註的話就是,目常在製作一個教材,你在教 AI 這個學生怎麼學那個東西,比如今天我把蘋果標起來,你就學的這個叫做蘋果。我們在各種不同環境裡面的蘋果,都叫做蘋果,但是一開始給他,他不認得,所以你一定要把它標起來,告訴他這個叫蘋果。標註這件事情其實很重要,因為在類神經網絡的設計上,每一個方法設計都有它的原因在,那這原因會先找到標註是怎麼樣標它,就是我要怎麼樣標它,它才能學的起來,這跟方法的設計有很大的關係,所以標註這件事情變得很重要,再來是所有的變化,都希望透過標註,讓 AI 去學習,不管是標白天、晚上的蘋果,黃燈、白燈底下的蘋果,甚至雨天放在外面的蘋果,他都是蘋果,不會變別的東西,但是他沒有看過就學不起來。可以把 AI 當成一個 3 歲的小孩,正在學習,你要告訴他為什麼,像這樣子,所以標註的過程,就是把這東西標起來告訴他說,你要認識這個東西。那現場環境也是這個樣子,我們經常遇到情況是,今天已經開始做了,他先用這一批白色的料,他跟你說這個白色東西就叫什麼,你就學起來就好了,但是等我們開發了一個月上線之後,可能校料的時候換成橘色了,AI 不認識了,因為他過去就只看過白色,這就是個大的問題。
Kuei:這幾年的 AI 技術,其實是我們可以針對這些東西做一些變化,讓 AI 去學到這個東西,紅蘋果也是蘋果,青蘋果也是蘋果,像這樣的事情學的起來,但是最好是你可以提供,馬上提供這些,有多少變化都提供出來,那當然還是可以快速的學到。這個東西可能比較不切實際,變成是未來我們會有迭代的過程,這個在專業來講是稱為 MLOps,他是一個 AI 學習東西的歷程。他有點像是非常年輕的新手上路,一個新人進工廠,只認得這工廠的情況,但是過了50年升到廠長,他看過的東西就很多,你給他看,他就告訴你這裡面有 10 種 100 種的變化,他都了解。但是一個新人進來之後他一定不知道,這二三十年的工作過程是他的學習過程,對AI來講一樣有學習過程,東西更新了之後他不認得了,你就要重新再標註他,讓他再學起來,這就是他的一個學習過程,學習之後,他的經歷也是會累積的,模型也是會變好的,他學到更多之後,就可以掌握這些變化。像自駕車這個領域,甚至一些比較所謂泛用性的物件偵測,我們發現他的學習能力是不錯的,他可以掌握非常多的變化和情況,但是這些變化情況,是你要讓他學起來的,他如果沒有看過沒有學過,他當然不會知道,就跟一個新人一樣,他剛進來的時候沒看過沒學過,他不會知道,對他可能只有一些教科書上面的知識,那不見得可以實際運用。
所以其實工廠要導入AI視覺的時候,我們要給這個 3 歲小孩足夠時間,去學產線上面的知識,才有辦法達到預期的目標成果。
Kuei:是,這個其實有一個比較困難的東西,叫做跨領域的合作,跨領域的合作一直是一件很困難的事情,AI 是屬於 computer science 的領域,工廠有 IE 的領域,還是一個工廠製造的領域,領域之間本身就會存在一些 gap,認知會存在一些落差。跨領域合作就是要怎麼樣彌補這個落差,彼此用不同領域的語言來講話,但我們要怎麼樣把這東西合在一起,才有辦法透過 AI 來做智慧製造,跨領域合作最困難的是溝通,這件事情是很重要的。
身為一個AI總監,面對過去有接觸到的導入案例,你會給下一個準備要導入 AI 視覺的管理者什麼樣的建議?在導入前期,他們應該要保持什麼樣的態度?
Kuei:其實最重要的是發現問題是什麼,這件事情很重要,因為客戶有客戶的想像,那 AI 變成一個通用語言的時候,其實有很多正確或錯誤的認知,在一般人的腦袋裡面,所以客戶用他的認知來講,告訴你說我要什麼東西,那是他想像有的問題,然後他想像怎麼解決,告訴你說幫我做這個,但是他可能對 AI 有一些誤會,有些超過預期的想像,甚至是目前你要做到成本是非常之高的。你說我有 2,000 萬,但是實際上,這個東西的成本可能是 2,000 萬美金,你說你有 2,000 萬台幣,那當然就不太可能,沒有人可以願意幫你做嘛。回頭過來我們在探索,我們有正確的 AI 認知,我們要了解出真正的問題是什麼,有時候客戶的問題不見得要走他想像的路線去解決,而是你用專業認知告訴他說,如果你要解決這個問題,我有哪些選項,成本格是多少,我們怎麼做。甚至他想解決整個問題,但就像冰山一樣,你露出來問題的角落而已,那你真的問題要問什麼呢,肯定要找到那個關鍵的問題,搞不好只要解決那一個問題,就可以解決80%的問題,這個東西變成是非常有價值,成本沒有高到要用整個成本來做這件事情,可能只用20%的成本,就可以解決80%的問題,所以最重要是你要能理解客戶,他到底基本存在的問題是什麼?這個才是最重要的。
Kuei:知道問題才有辦法解決問題,那就變成說,管理者需要非常了解自己產線遇到的挑戰到底什麼,並不是所有的問題都需要透過比較高智慧的AI視覺去做處理,其實有時候,會更推薦客戶去用其他方式,去處理去處理掉這個問題,讓AI視覺在比較關鍵的地方去做部署,會是成本效益最大,用一個漸進的方式去做優化最適合。
Kuei:是,以往的經驗來講,客戶想要做SOP,想看完整的生產流程,每一個步驟有沒有做對,但是這件事情真的需要每個步驟看嗎?因為其實我們知道,在工廠生產過程當中,會做非常多的防呆措施,他只要可以防呆,那你為什麼需要看他?你要看的是那些你用防呆措施做不了的,或者是很關鍵的東西,即便你有防呆,他做錯了你的損失就很大,這東西對營運還是相對重要的,有一些很細微的步驟,基本上不會做錯,去看他或者他做錯了損失也不大,那你花了很大成本看他,以有限的預算的工廠來講的話,這件事情其實非常沒有價值,成本效益太低了。
回到剛剛的問題,很多工廠產線模式會是勞力密集、少量多樣生產,面對這樣的產線的時候,你會給這些製造商什麼建議?不管是在 AI 模型的訓練、更新跟維護上面,這可能都跟他們產線當下的狀態非常有關係。
Kuei:其實要看所謂多樣的定義是什麼,有時候其實他出口不同客戶,只是差在外形上面,差在一些關鍵的小東西,比如說出到各個國家不同的電壓,或者是不同的插座外形,有些東西差異其實沒有到很大,那對於 AI 來講,本身就是一個 clone 的變化了,只是說,你能不能在我們訓練的初期,把這些變化都提供給我們來做訓練,那我們可以判斷說這個東西到底是叫,教 AI 認識他是一個東西還是兩個東西,這個是由 AI 的領域來做一些專業的判斷,data scientist也可以做一些專業判斷,說 AI 能不能選擇起來,你也可以說疊加的過程,讓他越來越認識你越來越多的產品,但一樣,你訓練一個人需要時間,你訓練一個 AI 也要時間。我們遇到問題是,第一個月看起來效果不錯,第二個月效果不行,之後他也沒有預算去維護了,第三個月之後就放著不用了,那是很可惜的狀態。我們會希望說,看到他是長時間運行的,長時間運行工廠一直會有變化,那少量多樣也是,有些工廠早上跟下午做不一樣的事情,那你可能要 AI 看,就不符合你的成本。你會做這麼大的變化,也是本身東西單價就低,也不見得需要這麼在意,這些需要 AI monitor 的事情。自己要評估說你的東西、你的生產,甚至你在未來一年的規劃,是希望AI幫你做什麼樣的事情。 那少量多樣,在某些情況底下並不是太大的問題,而是說在我們做規劃的階段,你有沒有讓 AI 專家足夠了解你要看的是東西是什麼、在工廠有多少的變化,那這些東西考量下去之後,才能做一個比較完善的評估,也可以讓 AI 在產線做長期的應用。
所以管理者其實要讓 AI 部署更順暢,在導入初期,盡可能把所有產線上面的變數、最完整的資訊,都提供給資料科學家,讓資料的值跟量是最大的,可以訓練 AI 更順暢。
Kuei:或者是說,要有一個比較長期的規劃,就是說這疊加過程是可以一直更新的,我們讓他先上線,有問題就更新,甚至你產線有可能改變,改變完之後,他就再也不會回到舊的東西上面去了,那舊的資料某種程度來講對模型是沒有意義的,我們可以把他淘汰掉。因為他本身要學習很多東西,所以有點像是你在訓練一個員工的過程,你要培養員工,不是做短期的訓練就希望他可以發揮 200% 的實力對不對?是一個培養的過程,AI 也是一樣,它是一個培養的過程,所以如果想要做 AI,我們會希望它是一個長期的事情,不見得需要一開始就投入大量成本看整個工廠,可以從一條長線開始,長時間的來運作,看看它的成本效率是怎麼樣,AI是會一直進步的,如果我們長時間餵它產線,需要更新頻率就開始慢慢下降,一開始可能一個禮拜更新一次,慢慢他看的越來越多,變成能一個月更新一次、三個月更新一次,甚至到未來,只有當你進了新的、不同的產品,才需要更新。
所以其實只要工廠管理端願意做一個夠長的規劃,願意投入一定金錢跟精力下去,AI 的優化可以幫助他們在產生上面發揮價值,越長時間會看到越大的成效。
Kuei:是,AI 突破了以往傳統的電腦視覺的限制,最主要是它可以很懂變化這件事情,但是他要很懂 ,還要控制變化,這件事情讓他看過,我們目前覺得 AI 學的不夠好,大部分的問題都在於他沒有看過,除了沒看過之外,還有情況是你不給他看,你把他遮住了,他看不到那樣就不會有反應,那我們透過鏡頭,不管透過哪種 sensor,你要讓目標東西出現在 sensor 底下,他才有辦法感受的到,這是一個非常直接的限制,也是我們其實最常遇到的情況。我們希望他長時間部署在環境裡面,可以看到這個東西,那他就會發揮他的效果。
很實際的例子就是,大家的手可能會遮住鏡頭、遮住物體,那這只要人看不到,AI 就看不到,我們就沒有辦法幫你偵測到。
Kuei:是,如說現場的管理員希望看到工人有沒有做事情的時候,第一個你會靠近看,第二個你真的看不到之後,就請他把手拿開,先把東西拿開或者是把在做的東西扳開,但AI他沒有那隻手,他無法靠近,所以你只好幫他做這件事情,你幫他做一件事情他就幫你做判斷。
等於說我們在建制整個生產線的工作流程時,必須要給 AI 足夠好的環境,讓他去做辨別,所以大家今天常常會有的錯誤認知就是,為什麼他做不到?人平常在旁邊做的到,但我們忘記人可以有不同角度去看,或者是用說話方式去請上面的作業員把手部動作移開。
Kuei:是,這些 AI 做不到所以你要幫他做,或者是說你要把這個空間騰出來讓他去看。
我很好奇 Kuei 覺得 AI 視覺在製造領域接下來未來會怎麼發展?我們可以有什麼樣正確的期待?
Kuei:這個問題其實我也還在了解當中,畢竟碰這一塊時間還有限。其實我們知道現在應用很多了,除了工廠的生產效率跟生產品質之外,我知道很多人也拿來做,比如說做 AOI、錯誤的偵測。基本上目前做的事情,大部分都屬於傳統電腦視覺應用在工廠領域在做的事情,只是以前做不好或以前的限制很大,現在透過 AI 的方式,讓他的能力更強了,他真的可以上線應用了。那未來我覺得大家要思考的是說,當我可以控制的資料量變大的時候,我有大資料的時候,以未來整個工廠全局的觀點,我應該做什麼樣的判斷?應該做什麼樣的事情?有時候在意一兩個小細節,第一個難做,第二不見得是你真的可以掌握 80% 問題的地方,有時候你看全局,比如說看一下今天工廠為什麼員工 30% 都集中在這個地方?代表說這地方是不是這條產線設計有問題?所以人都集中到這邊來,或是線上的產品怎麼都固定累積在那幾個點?這個可能就是瓶頸。不見得需要看到每一個,而只是透過一些數量的統計,透過一些物品的追踪,就可以讓你產線流向的情況呈現。
Kuei:遇到最大問題是,客戶說我幫你錄下來了,一天有 1,000 筆異常,但是你有沒有時間看 1,000 筆異常,看每一筆異常到底是不是工廠要在意的事情,還是說透過大量的分析,我可以幫你規劃成什麼,這個又是不同領域的知識衝擊。工廠習慣是用 sample 的方式,看小資料不看大資料,當你給他一個大資料的時候,也無法告訴你怎麼看他,那這個就必須說彼此雙方要坐下來,看我出來的是什麼東西,你就可以通過專業知識來想像說,我要怎麼用這個東西?這個變成是一個創造過程,以往這些東西,這些知識還不能應用的時候,我們當然不會創造出這些管理工具出來,那現在在 AI 已經是一個時機點了,只是說,未來大家怎麼合作才有辦法突破?
剛講到很多 AI 視覺的未來發展,還有他可以做到的事情,那身為 IE 工程師,他需要擔心被 AI 視覺給取代嗎?對工廠管理者來說,他們又可以怎麼去期待 AI 視覺幫助他們達成智慧製造?
Kuei:我還是偷一下陳維超老師講過的事情,他說那時候進去英業達,遇到第一個需要溝通的是,工廠他們很擔心你是來取代我的工作。這件事情是很有趣,就現在來看,至少從我的角度來看,未來5到10年主動型的AI,它並不是一個可以上線的東西。我們以自駕車來看,目前的自駕車以 level 2 為主,那 level 3 以上,其實大家都只敢規劃還不敢實作。**所以所謂的輔助性AI,它以後是一個很重要的生產力工具,至少在未來的 5 到 10 年,它是一個很好的幫手。**我會希望現場的 IE 是把 AI 當成好幫手,以往只有兩個眼睛可以看,只能看一部分的東西,但是當 AI 視覺進入工廠之後,你就有幾十個上百個眼睛來幫你看,但是當然你還是只有一個腦袋,所以你要幫忙去想,如果我有上百個眼睛的時候,我要看什麼東西?這個東西是討論出來的,這東西如果對你有幫助,我們就可以來思考說,如果你想看這個東西,那 AI 要怎麼看?輔助性的意思是說,我可以節省你去找這東西的時間,但是判斷這件事情,還是希望有專業的 IE 來做判斷。以往你覺得這場有問題,要花 10 分鍾站在產線前,拿個碼表去算是不是做錯了,未來你就是一定的資料累積下來,發現有問題的地方,你可以回去找,透過 AI 先幫你把關鍵的東西找出來,你可能坐在電腦前就可以完成。
Kuei:如果AI訓練的越久,我們越知道做什麼,省下的時間也會越多,那輔助性的東西,重點還是使用的一個人,使用的人需要告訴開發者說,你到底需要怎麼看這個東西?你自己怎麼看的?你需要看到什麼?這就是一個很重要開發過程。我們當然會期待這個東西是可以進步,越做越好,這也是我們在做這一行最主要的目的。
常常會聽到說,AI模型會搭配一個標準是準確度, 這個準確度,身為工廠管理者還有 data scientist 來說,它有多大的重要性?是準確度越高,就代表這個模型越好嗎?
Kuei:準確度這個東西分兩個層面來講,一個是做 AI 的開發者用的專業術語,accuracy、position、recall 都是我們在判斷模型準不準確的一些標準,實際上這些東西並不是直接代表應用上面的效果。我們做一般的物件偵測,是針對 image,是每個 frame 在看,假如一秒可以看 30 個 frame,那判斷錯,其中有一半的 frame,15 個 frame看不到,還有 15 個 frame 看得到,我們做完產品設計的時候,我就根據模型的準確度做一個設計,比如說我夠相信我的模型,這 30 個 frame 裡面,只要有 5 個 frame 看到,我就認為你是這個東西了,即便看起來好像只有 5 個,放到 30 個 frame,準確度沒有很高,但是作為應用,它已經夠用了效果夠好了。 所以其實邏輯不會只有 AI 那一層,一般設計的話,AI 上面有一個邏輯,上層邏輯,是根據現在環境去做一些設定,然後根據你要看什麼做一些設定,這些東西才是產品的準確度。這一整套設計下來,都會跟你真的想要看什麼東西有關係,準確度這個東西,更重要的是在應用層面上,應用上的準確度是什麼樣子。
回到底,還是要知道今天問題在哪裡?今天模型有沒有成功解答到這個問題?準確度這些其實沒有那麼重要,所以大家不應該以準確度來全權定義。
Kuei:不應該以單一模型的準確度來定義,尤其是這也會跟效能有關,你希望模型做到越準,模型就越龐大,所以他會有邊際效應,就是你用小型的模型就可以做到 90% 了,但是你要到 99%,可能是上千倍上萬倍以上的大模型才能做到,這個東西代表說運算成本很高,運算成本很高情況下,預算可能就不夠,人力訓練能力可能也不夠,訓練設備可能非常大,但是實際上你不見得需要這樣子,90% 的時候有 90% 可以做的事情,我們可以透過其他的設計,包含是 UI/UX 的設計,軟體的設計,通過這些設計,即便是 80%90% 的模型,也可以給你想要的東西。
今天很謝謝 Kuei 的時間,用非常平易近人的方式幫我們解說也解惑,不管是把 AI 視覺、AI 模型比喻成 3 歲小孩,我們就是需要時間去訓練他們,去餵給他們資訊,教導他們要怎麼看到產線上面的物件去辨別之外,其實現在我們卡住的一塊,還是會回歸到硬體設備,在預算上面的考量,這些其實都是要達成智慧工廠、數位轉型中,很常忽略一塊,但是大家會面對到的挑戰。