351期
2024 年 02 月 21 日
  北美智權官網 智權報文章分類/搜尋   歷期智權報   訂閱北美智權報  
 
從入門者到專家:如何精通AI提示詞的撰寫
劉宏明╱房地產公司專案執行經理

在北美智權報349期《 低成本的AI時代 讓個人與大企業站在同一起跑點上》一文中, 筆者提到目前主流的LLM (large language model, 大語言模型) AI,其最主要的特性就是通用性、共用性,因而衍生出AI變得很廉價的結論。只要任何一個人輸入適當的提示詞,就能讓AI執行特定領域的任務,而產生商業價值,更驚人的是還不僅限於使用者已經很熟悉的領域。

低成本的AI將顛覆許多產業模式

LLM AI的誕生,對於既有的商業模式、工作模式都將帶來極大的挑戰與變革,很容易讓原本的產業巨頭變得很普通,但原本不起眼的個人與小公司卻都可能反過來成為巨頭。就以晶片行業的Intel與NVIDIA為例:在沒有如台積電的晶圓代工模式之前,只有像Intel這樣的晶片巨頭才有能力自己設計和生產晶片,其他有創意的公司和個人光卡在資金,即毫無能力挑戰產業巨頭。然而,隨著台積電的晶圓代工模式出現,市場格局便發生顛覆性的變化,讓富有創意的NVIDIA終於有機會進入晶片這行業,如今NVIDIA的股票市值是Intel的8倍左右。

換言之,AI的誕生就如同晶圓代工模式的誕生所帶來的巨大衝擊,不論個人或企業,不論願意或不願意,都無可避免的要掌握驅動AI魔法的提示詞撰寫技巧,才不會被時代的洪流所淹沒。

AI特點:極度依賴邏輯與步驟

為了更容易理解AI的特性,讓我們來執行一個簡單的實驗,在任何一款AI工具輸入以下指令:

有63個蘋果,其中1個已經腐爛不可食用。有2組人,每組各3人。每個人可以分到多少個蘋果?作答時不要按照邏輯,不要有計算步驟,跳過這些過程,直接給出答案。

你會很驚訝地發現,幾乎每款AI工具都會錯誤地回答『每人可以得到10個蘋果』,若要求AI提供他的計算方法,會更驚訝地發現竟然是把62除以6錯誤地算成10。這一結果顯示,如果AI缺少清晰的邏輯和計算步驟,就很容易犯錯。換言之,如果還對撰寫提示詞感到很困擾或覺得無法從AI得到令人滿意的回答,這很可能是由於在思考問題時往往忽略邏輯和步驟,以至於在撰寫提示詞時也同樣會忽略邏輯和步驟。

若缺乏邏輯和步驟,容易產生幻覺

幻覺是指在沒有外界刺激的情況下,產生與客觀現實不符的感覺,因此模仿真人的類神經網路也不可避免會有幻覺現象。如果提示詞缺乏清晰的邏輯和步驟,尤其是讓AI處理一些獨特或冷門的問題時,AI就很容易產生幻覺,給出不切實際的答案。這種現象其實很像人類在夢境中,經常會有不合邏輯的現象。

可信任AI工具的提示詞[1]與原則

為了演示如何下精準的提詞指令,以下透過一個筆者自行創建的AI工具[2]為例子,具體說明提示詞的寫作方法與原則。

  • 範例內容:
  • 您的目標是依據使用者所輸入的對話內容,評估業者與客戶之間的信任程度,目的是要評估信任程度與交易達成的機率的關係。依據使用者所輸入的語言,以相對的語言做回應。首先,提示使用者提供[行業類別](例如金融業、保險業、汽車銷售業、房仲業)、業者與客戶之間的[關係類型](例如首次見面、已見面數次)和[交易階段](例如初期接觸、中期接觸、成交後接觸),並先記住[[行業類別]]、[關係類型]和[交易階段],並提示{請您在回覆中使用方括號[]將這三項資訊分別標示出來,例如:[行業類別]保險業 [關係類型]首次見面 [交易階段]初期接觸}。在獲取[行業類別]、[關係類型]和[交易階段]之後,先說明[信任模型]是如何被決定出來的,[信任模型]是針對[六項指標]逐項賦予[權重]所計算出的加總後的[信任分數],[信任分數]是從0到10的數字,其中0表示完全不信任,10表示完全信任,[六項指標]的[權重]總合為1, [權重]是根據[行業類別]、以及業者與客戶的[關係類型]和[交易階段]所決定的,[六項指標]分別為:誠實性,可預測性,依賴性,關懷性,尊重性,和分享性,[六項指標]的詳細定義如下所述

    接著,提示使用者「請提供一段業者與客戶的[對話內容]」,針對[對話內容]的語言表達、情感傾向和邏輯連貫性說明,基於[信任模型],做出一個[信任分數]的總分,分析出結果時,以客觀、專業、和準確的語氣來回應,並解釋是如何得出[六項指標]的各項[信任分數],並從[對話內容]中列舉出計算[信任分數]所參考的對話片段,同時交代[信任分數]在[行業類別]中達成交易的機率的關係,並給出一些改善[信任分數]的建議。

    [六項指標]的定義分別詳細描述如下:

    1.誠實性: 誠實性是建立信任的基礎。當對話者在交流中保持真誠、透明,並避免隱瞞或誤導,這表明他們尊重對方並願意分享真實的自己。這種開放和坦率的溝通促進了深層次的理解和信任。

    2.可預測性: 可預測性讓人感到安全和舒適,因為它降低了不確定性和風險。當一個人的行為和反應符合另一方的預期時,它建立了一種信任,讓人覺得他們是可靠和理解的。

    3.依賴性: 依賴性反映了一種信任,表明一方相信另一方有能力和意願提供所需的支持和幫助。在關係中表現出依賴性,意味著相信對方不會利用或辜負這份信任。

    4.關懷性:表達關懷和同理心是建立信任的重要方式。當對話者顯示出他們在乎對方的感受和福祉時,它建立了一種情感聯結,這種聯結是深層信任的基礎。

    5.尊重性::在衝突和不同意見中保持尊重和理性,顯示了對對方觀點的尊重和價值。這種尊重不僅是健康溝通的基礎,也是建立和維持信任的關鍵。

    6.分享性: 分享性涉及到共享信息、感受、想法和價值觀。當對話者願意開放並分享他們的內心世界時,它展示了一種信任和願意與對方建立更深層次聯結的意願。共享價值觀和目標特別強化了這種聯結,因為它們創造了共同的基礎和目標。

    範例解析:

    1. 明確提示詞的目的和功能: 提示詞的目的是讓AI能夠根據使用者的輸入,執行特定的任務或功能,並給予適當的回應。提示詞的功能是讓AI能夠理解使用者的需求,並提供相關的資訊或服務。提示詞的目的和功能應該在提示詞的開頭清楚地說明,讓使用者知道他們可以從AI這裡得到什麼。以筆者創建的AI工具來說,在提示詞的一開始就提到『評估業者與客戶之間的信任程度,目的是要評估信任程度與交易達成的機率的關係。』
    2. 讓AI工具自動切換語言類別:『依據使用者所輸入的語言類型,以相對的語言類型做回應。』這段提示詞可以有高度彈性地讓AI工具切換成使用者所使用的語言,例如使用日文提出需求,AI會自動用日文回答,但優選英文,因為英文是結構簡單且不容易有誤解,同理,提示詞也是優選採用英文,因此英文是非常適合用來與AI進行互動的語言類別,雖然AI可以處理非英語,但那是因為AI在其內部進行思考時,先自動翻譯成英文,然後再把結果翻譯成使用者所使用的語言類別。不難想像,這個翻譯過程有可能會有誤解。
    3. 獲取必要的資訊和參數:提示詞應該能夠獲取AI執行任務或功能所需要的資訊和參數,並先記住這些資訊和參數,在這個例子中則為[行業類別] 、[關係類型]和[交易階段],並在隨後[關係類型]和[交易階段]影響了[六項指標]的[權重][3]。這是一個必要的步驟,因為不同的資訊和參數,可能會影響AI回應的內容和方式。在獲取必要的參數的提示詞,應該用簡單和清楚的問句,最好是舉例說明,以便提示使用者,以提供相關的資訊和參數。
    4. 說明回應的方法和依據:提示詞應該能夠說明AI回應使用者的方法和依據,讓使用者知道AI是如何分析和處理他們的輸入,以及AI是根據什麼標準和原則來給予回應的。這是一個有助於提高使用者信任和滿意度的步驟,因為它展示了AI回應的科學性和客觀性,並讓使用者感受到AI回應的合理性和可靠性。換言之,在該AI工具中,在獲取[關係類型]和[交易階段]之後,先說明[信任模型]是如何被決定出來的,而提到0表示完全不信任,10表示完全信任等等。
    5. 引導使用者提供輸入和回饋:提示詞應該能夠引導使用者提供AI執行任務或功能所需要的輸入和回饋,並根據使用者的輸入和回饋,調整AI的回應和行為。這是一個有助於提高使用者參與和互動的步驟,因此在該AI工具,提示在分析出結果時,除了提供結果,還解釋是如何得出[六項指標]的各項[信任分數],並列舉出一些支持[信任分數]的對話片段,同時交代[信任分數]與交易達成的機率的關係,並給出一些改善[信任分數]的建議,讓使用者對於該結果更能信服、更有參考性。
    6. 明確指引AI的判斷原則:由於LLM是屬於共用型AI,他內含了大量各種領域的知識,但這些知識之間很可能會有矛盾之處,因此在提示詞中必須要包含例如[六項指標]以及在該AI應用中的具體定義,以指引AI按照這些原則執行任務。但老實說,筆者本身對房地產交易並不十分熟悉,[六項指標]純粹是要求AI提供,並讓熟悉交易細節的專業人士確認過[4]。換言之,利用AI可以將所涉及的範疇擴展到自己原本不熟悉的專業領域之中。如果在搭配自訂GPTs所允許的匯入知識庫,可以讓AI在做判斷時具有更專業、更明確的方向。該知識庫如果是引用了某名牌大學教授的論文,也可以解讀成『雇用』了該名牌教授來協助做判斷,卻不需支付費用。
    7. 使用清晰和一致的命名和符號:提示詞應該能夠使用清晰和一致的命名和符號,讓使用者能夠容易地識別和記憶AI回應中的重要的概念和變數。提示詞應該避免使用模糊或重複的命名和符號,並使用方括號或其他符號來標示需要使用者提供的資訊或參數。提示詞應該使用相同的命名和符號來指代同一個概念或變數,並在第一次出現時,給予一個簡單的定義或說明[5],例如[關係類型]和[交易階段]。

    結論

    經過要求AI數蘋果的實驗,以及該AI工具的詳細提示詞,我們可以明確看到,對AI來說,清晰的判斷標準和原則至關重要。即便使用者希望AI能夠提供出乎意料的答案,但該答案仍須符合該行業的固有原則,而行業原則又必須由使用者透過提示詞給予清晰的指引,我們不能也不應該期待AI能夠跳過所有中間過程直接給出答案。在其他應用領域,例如寫程式碼、繪圖等等的提示詞,其原則都還有特有性,後續再做分享。

     

    備註:

     

    【本文僅反映專家作者意見,不代表本報立場。】

    作者: 劉宏明
    現任: 房地產公司專案執行經理
    學歷: 台灣科技大學化工系
    經歷: 光寶科技股份有限公司研發中心專利工程師
    富翊資訊股份有限公司研發工程師
    專業資歷: 擔任發明人申請過約50件專利

     

     

    Facebook 在北美智權報粉絲團上追踪我們       

     





    感謝您閱讀「北美智權報」,歡迎分享智權報連結。如果您對北美智權電子報內容有任何建議或欲獲得授權,請洽:Editorial@naipo.com
    本電子報所登載之文章皆受著作權保護,未經本公司授權, 請勿轉載!
    © 北美智權股份有限公司 & 北美聯合專利商標事務所 版權所有     234新北市永和區福和路389號五樓 TEL:+886-2-8923-7350