作者 | 李晨 編輯 | Debra Chen Gartner最近對全球2,500名高管進行的一項調查發現,近一半(45%)的人表示,ChatGPT的宣傳促使他們增加人工智慧(AI)投資。調查報告稱,70%的高管表示他們正在調查人工智慧的使用,而19%的高管正在試點或已經在生產中部署人工智慧。 Ga ...
作者 | 李晨
編輯 | Debra Chen
Gartner最近對全球2,500名高管進行的一項調查發現,近一半(45%)的人表示,ChatGPT的宣傳促使他們增加人工智慧(AI)投資。調查報告稱,70%的高管表示他們正在調查人工智慧的使用,而19%的高管正在試點或已經在生產中部署人工智慧。
Gartner發現,大量組織正在使用ChatGPT等生成式AI來改進宣傳內容或者生成代碼。這種技術可以增強使用者的能力,並可以自主執行業務和IT流程,生成式AI可以潛在地取代或補充多項工作任務。調查發現,68%的高管認為生成式AI的好處大於風險,而只有5%的人認為風險大於收益。然而,隨著使用程度的不斷深入,高管們可能會開始改變他們的觀點。
Gartner給出了建議和警告:“最初對新技術的熱情可能會讓位於對風險和實施挑戰的更嚴格的管控,組織在開始開發和部署生成式AI時,可能會遇到許多信任、風險、安全、隱私和道德問題。”
ChatGPT,文心一言,Bard或通義千問等工具使用先進的機器學習技術來生成複雜的文本。生成式AI的好處包括易於培訓和定製化、降低運營成本和7x24全天候服務。然而,儘管有這些好處,但像ChatGPT這樣的生成式AI工具確實存在著捏造信息、泄露隱私和錯誤引導等風險。
生成式AI如何提供業務價值?
生成式 AI 是一種特定自然語言處理(NLP)工具,該工具以類似人類的對話方式生成對用戶提示或問題的響應。生成式AI分析和“學習”各種類型的數據:文本、音頻、圖像,並生成類似人類的輸入答案。
在用於客戶服務目的的生成式AI的場景下,組織通常將該工具集成到基於文本或語音的聊天機器人中,用於完成以下任務:
- 回答客戶有關產品或服務的問題。
- 自動化完成訂單,換貨和退貨。
- 提供多種語言服務。
- 將用戶引導至FAQ和服務團隊尋求幫助。
根據企業業務的不同,客戶服務用例可能會有很大差異。但是ChatGPT這類生成式AI工具確實幫助企業提升了AI機器人對客戶服務的效率和準確率。
生成式AI在企業應用中的風險
儘管有好處,但像ChatGPT這類的生成式AI工具也有不少缺點,甚至是致命問題。因此,企業在將重要業務控制權移交給AI機器人之前必須瞭解以下風險:
- 捏造信息
生成式AI機器人的有用性取決於它們擁有的信息。在某些情況下,人工智慧可能會錯誤地解釋信息,或者使用不充分或過時的信息。如果人工智慧系統學習到不准確或捏造的數據,它可能會對用戶問題產生不正確的回答。
生成式人工智慧聊天機器人還可以創造連貫的廢話,自信而雄辯地做出虛假陳述。在這種情況下,生成式AI工具會生成隨機且不准確的輸出,這會使用戶感到困惑,捏造的信息也可能導致用戶對該工具失去信任,從而降低其實用性。
- 隱私泄露風險
隱私泄露風險是指用戶不知情情況下,個人的私密信息被泄露,或者通過其他信息被ChatGPT推斷出來的隱私信息。在使用 ChatGPT 過程中,個人、企業、甚至國家的機密信息都可能泄露。
個人信息的泄露可能會對個人的心理健康、人身和財產安全造成影響。而國家或企業商業機密則往往只有少數人能夠獲悉,這些信息的泄露和傳播可能會危及國家和企業的安全。此外,即使用戶未直接泄露私密信息,ChatGPT 在不斷學習的過程中,也可能自行推斷出這些信息,增加了隱私信息被推導出來的風險。
- 有偏見的信息
人工智慧模型可以學習識別和描述對象,以區別很多相似的名字或外觀,但ChatGPT使用和分析的數據是來自數十億個網頁的數據。因此,在互聯網上存在的種族或政治偏見可以被夾帶到工具的輸出中。
如果一個企業的生成式AI聊天機器人產生種族主義、歧視或政治偏見的回應,該企業的品牌可能會受到嚴重損害。
- 缺乏同理心
ChatGPT可以在其回覆內容中模擬人類口吻和行為,但它仍然缺乏真實人類的同情心和同理心。如果一個憤怒的客戶與一個缺乏真正人類情感的AI機器人互動,他們可能會變得越來越沮喪和憤怒。
- 安全問題
與任何網路連接技術一樣,一些組織或個人可以秘密地將虛假信息插入生成人工智慧系統。例如,他們可能會插入受惡意軟體感染的鏈接或網路釣魚做法,為AI提供向用戶傳遞惡意軟體和網路釣魚信息的機會。
企業應該使用生成式AI嗎?如何使用更穩妥?
在這個AIGC時代,生成式AI會極大的改變社會運行方式和企業商業運行邏輯。客戶服務和咨詢行業、金融和銀行業、製造業、教育行業、翻譯、影視製作、圖像服務等行業都會迎來翻天覆地的變化。我們不要因噎廢食,因為生成式AI有這樣或那樣的風險就不去使用,這樣會使個人或企業錯過技術革新而失去競爭力。但是,也需要在使用時進行細緻的規劃和規範的管理。建議企業在使用生成式AI時遵循以下原則:
- 用戶教育和安全意識提升:
提高用戶的教育和安全意識是確保全全使用生成式AI的重要措施。平臺和開發者應該提供明確的使用指南和行為準則,向用戶解釋生成式AI的工作原理、其生成內容的特點以及潛在的風險。推廣數字素養和信息鑒別能力,幫助用戶更好地辨別虛假信息、不當行為和惡意攻擊。開發者可以開展宣傳活動、舉辦培訓和研討會等,讓用戶瞭解生成式AI的應用場景、限制和風險。通過增加用戶對生成式AI的認知,可以幫助他們更加謹慎地使用,並主動參與保障使用生成式AI的安全性。
- 私有化部署生成式AI大模型,並儘量使用自有完整數據進行二次訓練,而非直接採用外部服務或現成大模型:
對生成式AI進行有效的訓練和篩選是必要的,訓練數據的質量和多樣性對於生成出準確、有用的回答至關重要。通過對訓練數據進行篩選和審核,去除虛假、有害或誤導性的內容,能夠提高生成式AI的可信度和安全性。經過內部完整數據的二次訓練,會讓生成式AI更懂實際業務場景和正確的應對內容,提供給用戶的反饋信息就會更準確,針對性更強。
- 完善管理策略, 遵循國家政策或法律法規,避免產生道德、隱私或安全問題:
實施內容審核和監管機制是確保生成式AI安全使用的關鍵一環。平臺和使用者應該加強對生成內容的監控和審核,及時發現和處理不當的言論或內容。建立機制,使用戶能夠報告有害或違規內容,從而保障平臺的安全和用戶的權益。
如何私有化部署大模型並快速訓練?
面對以上問題,有不少企業希望訓練自己的私有化GPT大模型,但是不菲的硬體投入成本和時間成為最大的阻礙,讓很多嘗試擁抱生成式AI的企業望而卻步。如何能用最小的代價,快速訓練出安全、準確、適用的GPT大模型?Apache頂級開源社區海豚調度- DolphinScheduler給出了答案。
Apache DolphinScheduler是一個Star超過1萬的大數據和AI的調度工具,它是Apache軟體基金會旗下的頂級項目,這意味著你可以免費使用它,也可以直接修改代碼而不用擔心任何商業問題。在AIGC領域,DolphinScheduler的目標是讓任何對GPT大模型有需求的個人或者企業,都能享受到擁有更“懂”自己的模型的樂趣,每個人或企業都有權利和能力去塑造自己的AI助手,而DolphinScheduler可見即所得的工作流程為此提供了可能。
無論你是業界專家,尋求用專屬於你的數據來訓練模型,還是AI愛好者,想嘗試理解並探索深度學習模型的訓練,DolphinScheduler都將為你提供便捷的服務。它為你解決了複雜的預處理、模型訓練、優化等步驟,只需1-2個小時幾個簡單的操作,加上幾十小時的運行時間,就可以構建出更“懂”你的定製化ChatGPT大模型。
在這個以數據和技術驅動的世界中,擁有一個專屬的生成式AI模型具有無法估量的價值。隨著人工智慧和深度學習的日益發展,我們正處在一個可塑造個性化AI助手的時代。而訓練和部署屬於自己的生成式AI模型,可以幫助我們拿到更準確,更安全、更可信的結果,更好地利用AI實現業務價值。
總體而言,自訓練和部署生成式AI模型可以幫助你更好地保護數據安全和隱私、滿足特定的業務需求、節約技術成本,同時通過工作流工具如DolphinScheduler使訓練過程自動化,可以加速這一工作的實現。更多信息,請訪問海豚調度官方網站 https://dolphinscheduler.apache.org/ 或者關註微信公眾號 “海豚調度”。
本文由 白鯨開源 提供發佈支持!