導讀:人工智能(AI)、機器學習(ML)、貝葉斯優(yōu)化、大數(shù)據(jù)和其他現(xiàn)代技術(shù)可以提高我們建模、理解和優(yōu)化流程的能力;并且這些技術(shù)可以使行業(yè)走向操作和維護的自主性。
我相信人工智能(AI)、機器學習(ML)、貝葉斯優(yōu)化、大數(shù)據(jù)和其他現(xiàn)代技術(shù)可以提高我們建模、理解和優(yōu)化流程的能力;并且這些技術(shù)可以使行業(yè)走向操作和維護的自主性。這些是工業(yè) 4.0、工業(yè)物聯(lián)網(wǎng) (IIoT)、智能制造、智能儀器儀表、資產(chǎn)模型和數(shù)字孿生等流行語的核心要素。
被供應商推廣的AI解決方案,也許需要克服過程所有者的謹慎,但也會產(chǎn)生一種炒作,甚至可能在潛在用戶中造成懷疑。我們?nèi)绾巫屓藗兘邮懿崿F(xiàn)適當?shù)膽??我們?nèi)绾渭涌爝M展?也許這篇文章可以提供幫助。
揭開算法的神秘面紗
AI是一組確定性算法,用于使用當今支持計算機的技術(shù)對龐大的數(shù)據(jù)庫進行建?;蛩阉?。我們的個人設備接受語音命令,并自動更正我們的拼寫和語法。它們"傾聽"有聲的問題并提供"答案",例如"我發(fā)現(xiàn)了這個"。但聆聽不是類似人類的理解,它只是聲波的算法翻譯。響應只是與網(wǎng)站的連接,其中包含問題中關(guān)鍵字的文本翻譯的可能答案。三十年前,這一切都是科幻小說。
雖然AI看起來很了不起,但它不是人類類型的智力。它不是一個有需求來驅(qū)動其獨立行動的存在。顯然就目前而言,它沒有可能破壞人類的議程。盡管它的名字,開發(fā)者一直在追求的愿景,以及虛構(gòu)的創(chuàng)造力,AI并不是一種獨立的智力。
ML不像人類那樣"學習"。它只是一組支持計算機的技術(shù),用于查找關(guān)系(如主成分分析)或調(diào)整模型系數(shù)以使模型與數(shù)據(jù)最匹配(如回歸)。人們可以回到過去,將回歸呈現(xiàn)為"學習",并使不理解回歸的人感到困惑。ML并不像人類那樣學習或理解。
在某種程度上,那些探索和開發(fā)AI的人采用的科幻術(shù)語、神秘感和創(chuàng)作者的熱情,在潛在用戶之間造成了誤解。一個是擔心如果讓這個"大腦"負責,可能會做出什么。第二個是期望AI將神奇地解決一切。然而,就像過去支持過程設計者和操作員的任何建模和分析進步一樣,AI只是今天支持計算機的一套輔助工具,用于人類對過程的理解、控制和改進。
在 1970 年代,我的汽車上的巡航控制僅按比例進行,在上坡或下坡時會留下穩(wěn)態(tài)偏移。到了80 年代,他們添加了一個整體功能來消除該偏移?,F(xiàn)在,我的汽車制造商稱其巡航控制產(chǎn)品為"智能控制"。當它檢測到前方有車輛時,它會降低速度以保持安全距離,當我移動到超車道時,它會返回到設定點速度。這些進步并不是什么魔法。然而,今天的時尚是將先進的技術(shù)功能稱為智能。
對AI的合理期望
我相信,AI可以通過支持人類控制、優(yōu)化、安全操作和更好地了解我們使用的過程來提供很多東西。我還認為,我們需要對AI能做什么有合理的期望,并在實施AI時像給予新手人類員工自主權(quán)一樣謹慎。
在于用戶和供應商們探討AI應用和實施過程中遇到的挑戰(zhàn)時,通常都涉及下面兩個關(guān)鍵問題:1)產(chǎn)生信任;2)應用設計。
誰來負責:根據(jù)我的經(jīng)驗,過程工業(yè)中計算機自主性的主要障礙之一是管理者負責。他們個人要對不良事件負責,例如環(huán)境違規(guī)、人員傷害或損失。令人擔憂的問題包括安全、遵守合同和法規(guī)、應對意外結(jié)果以及在可能的威脅開始出現(xiàn)時立即恢復安全運營。
管理者是風險規(guī)避者,但總有意想不到的事情。管理者通常不會將自己的職業(yè)生涯交給新手員工,因為他們最初的解決方案往往是短視的。我認為,與他們對新手的信任相比,管理層將不太相信AI會包含全面的態(tài)勢感知。
應用設計:當我們設計一個新的流程、系統(tǒng)或方法時,我們通常不會在第一次就把它做好。撰寫段落和報告或策劃活動也是如此。在我們思考的過程中,我們會微調(diào)改進,納入最初沒有考慮的新功能,最終得到一個可行的設計。新手就更不太可能在第一次嘗試時就把它做得很好。
根據(jù)我的經(jīng)驗,在設計一個AI應用時也是如此。第一次嘗試是簡單化的,而且常常假定AI有一種它沒有的能力。但其實AI需要大量的人類指導。你需要選擇給它什么數(shù)據(jù),您需要選擇要提供的數(shù)據(jù),對數(shù)據(jù)中可以找到的內(nèi)容以及理解任何輸出決策的完整程度有合理的期望。
實施AI的6個建議
無論你是供應商還是試圖說服管理層嘗試AI的潛在用戶,我都建議先仔細考慮清楚下面這個清單,以便于讓AI應用的進展更順利:
1. 解釋它是如何工作的。讓潛在用戶和管理者感到安全。不要把AI塑造成有知覺的、智慧的或神秘的。不要使用計算機和數(shù)據(jù)科學家的語言或類似人類的歸因。不要通過將客戶的注意力轉(zhuǎn)移到它有多么偉大或容易使用來掩蓋真實的算法機制。解釋該算法。包括它不能做什么,能做什么。確保對方真正理解。
2. AI包括許多先進的建模和優(yōu)化算法。它們比傳統(tǒng)方法更好嗎?相對于其成本(數(shù)據(jù)采集、培訓、軟件),它的好處(功能、準確性、速度、易懂性)是否足以證明其使用的合理性?不要因為它們被吹捧得更好,或因為是新的時尚而跟風購買。潛在的用戶應該測試一下,看它是否對目標應用更好。
3. 供應商應該在面向用戶的應用上提供基準測試,用面向用戶的良好指標,而不是用學術(shù)示例。在潛在用戶的價值觀中建立可信度,而不是在發(fā)明者的科學期刊界建立可信度。
4. 使應用與技術(shù)相適應。"對于一個有錘子的人來說,一切看起來都像釘子"(這是20世紀60年代的一句格言)。如果你探索的東西很好,但在錯誤的應用上,或在不完整的能力下實施它,那么結(jié)果也將是失敗的。正如80年代的神經(jīng)網(wǎng)絡所發(fā)生的那樣,好的技術(shù)可能也會贏得 "它不起作用 "的聲譽,并且需要很長的時間才能從這樣的名聲中恢復過來。不要因為讓AI被誤用而破壞其未來的前景。
5. 循循漸進地應用 AI。最初不要提議給AI以自主權(quán),而是讓它報告和建議做什么。如果操作者同意,就讓他們實施建議。讓人類員工了解情況,逐步將綜合的問題納入到最初的解決方案中。在漸進的步驟中建立信心。
6. 隨著人類對過程和自動化應用理解的不斷發(fā)展,過程管理者可以增加或調(diào)整對AI自主性的考慮。因此,AI供應商需要讓人類員工更容易地將AI從最初的短視觀點調(diào)整為對所有新問題的更全面的看法--以確定真正的、全面的、多層次的目標。
AI在過程工業(yè)中的機遇
也許有一天,AI將能夠自主診斷和控制現(xiàn)實世界的操作,包括在汽車、制造和醫(yī)藥行業(yè)等應用。但是,以下是我認為在過程工業(yè)應用中對AI實用的愿望清單:
在所有應用程序中使用相同的模型當然會很好。我們使用模型進行設計、訓練、控制和優(yōu)化,如果有一個通用的模型會更方便。
如果AI能夠自主設計和調(diào)整模型以匹配目標過程那就太好了,因為過程屬性會隨時間變化。這必然包括數(shù)據(jù)的自主預處理和后處理驗證。
在過程控制中,我們希望優(yōu)化經(jīng)濟路徑,而不僅僅是設定值。這可能包括控制器的自動調(diào)整,不僅要最小化平方偏差,還要根據(jù)安全和產(chǎn)品規(guī)格限制將瞬態(tài)的運營成本降至最低。
如果語音命令可以激活過程,并且語音筆記可以轉(zhuǎn)換為文本并放置在操作員的日志中,那就太好了。
AI需要處理隨機數(shù)據(jù)。但工業(yè)過程不是確定性的;它們很吵,容易受到干擾。我們不希望虛幻的"最佳"誤導AI決策或輸出。AI還需要在約束和不連續(xù)性范圍內(nèi)做出全局決策,而不會陷入局部陷阱。
通過預測惡化需要修復的時間來支持預測性維護。這可能是為了機器維護或調(diào)整優(yōu)化、過程分析、推理測量或控制中的模型。
將人類對過程行為的認知的語言規(guī)則轉(zhuǎn)換成代碼,自主驗證(或拒絕)和改進規(guī)則,然后將驗證和改進的規(guī)則以人類語言呈現(xiàn)給過程管理者,幫助他們更好地理解和管理他們的過程。