首頁 企業 NVIDIA NeMo Guardrails 使生成式 AI 文本響應保持準確、切題和正軌

NVIDIA NeMo Guardrails 使生成式 AI 文本響應保持準確、切題和正軌

by 哈羅德弗里茨
Supermicro GPU SuperServer SYS-820GP-TNAO端

生成式 AI 應用程序會創建令人印象深刻的文本響應,這些響應有時是準確的,有時則完全偏離主題。 這些智能應用程序由大型語言模型 (LLM) 提供支持,能夠回答複雜的查詢並創作藝術作品、文學作品等。 確保這些智能應用程序生成準確、適當、切合主題、安全且最新的文本響應至關重要。

生成式 AI 應用程序會創建令人印象深刻的文本響應,這些響應有時是準確的,有時則完全偏離主題。 這些智能應用程序由大型語言模型 (LLM) 提供支持,能夠回答複雜的查詢並創作藝術作品、文學作品等。 確保這些智能應用程序生成準確、適當、切合主題、安全且最新的文本響應至關重要。

NeMo 護欄

NVIDIA 發布了開源軟件,以幫助開發人員保持這些生成式 AI 應用程序正常運行。 NeMo Guardrails 將有助於確保 AI 應用程序做出適當、準確和安全的響應。 NeMo Guardrails 軟件包含企業需要的所有代碼、示例和文檔,可讓企業對部署生成文本的 AI 應用充滿信心。

企業影響

由於擔心安全、安保以及 LLM 可能生成不適當或有偏見的內容,企業對實施大型語言模型 (LLM) 表現出猶豫。 NeMo Guardrails 的推出為這些挑戰提供了一個有前途的解決方案,有助於降低與 LLM 採用相關的風險,並幫助企業克服猶豫。 通過提供用於構建安全且值得信賴的 LLM 對話系統的工具包,NeMo Guardrails 允許開發人員輕鬆建立可編程規則來指示用戶交互,確保基於 LLM 的應用程序遵守企業標準和策略。

NeMo Guardrails 支持的主題、安全和安保護欄解決了我們從企業那裡聽到的一些主要問題,從保持主題焦點到防止錯誤信息或不適當或惡意的響應。 通過提供強大的安全模型並降低與基於 LLM 的應用程序相關的風險,NeMo Guardrails 增強了企業採用這一強大技術的信心。

隨著 NeMo Guardrails 的發布,希望它可以成為更廣泛的企業採用 LLM 的催化劑,彌合人工智能技術的能力與商業世界的安全和保障要求之間的差距。

安全,切合主題,安全

許多行業在推出 AI 應用程序時都採用 LLM,這些應用程序最終將回答客戶問題、為冗長的文檔提供摘要、編寫軟件並加速藥物設計。 對於這種多樣化的受眾,生成式 AI 的安全性是一個重要問題,NVIDIA NeMo Guardrails 旨在與所有 LLM(包括 OpenAI 的 ChatGPT)合作,以幫助確保用戶安全。

開發者可以使用 NeMo Guardrails 設置三種邊界:

  • 局部護欄: 防止應用程序偏離路線進入某些不需要的區域,例如阻止客戶服務助理回答有關天氣的問題。
  • 安全護欄: 確保應用程序以準確、適當的信息響應,過濾掉不需要的語言並強制僅對可靠來源進行引用。
  • 安全護欄:限制應用程序僅與已知安全的外部第三方應用程序建立連接。

NeMo Guardrails 不要求軟件開發人員成為機器學習專家或成為數據科學家。 只需幾行代碼即可快速創建新規則。

開源並在 GitHub 上可用

NVIDIA 正在將 NeMo Guardrails 添加到 NVIDIA NeMo 框架中,為用戶提供訓練和調整語言模型所需的一切。 GitHub 上已經提供了大部分 NeMo 框架,企業可以獲得完整且受支持的軟件包,因為它是 NVIDIA AI Enterprise 軟件平台的一部分。

NeMo 也是 NVIDIA AI Foundations 的一部分,這是一個雲服務系列,適用於希望根據自己的數據集和領域知識創建和運行自定義生成 AI 模型的企業。

建立在 Colang 上

NeMo Guardrails 基於 CoLang 構建,CoLang 是一種建模語言和用於對話式 AI 的相關運行時。 Colang 為用戶提供了一個可讀和可擴展的界面來定義或控制使用自然語言的對話機器人的行為。

護欄是通過使用規範形式、消息和流在 Colang 文件中定義流來創建的。 這是使用自然語言實現的,使其易於構建並使機器人繼續執行任務。 一些 GitHub 示例 解決實施護欄的常見模式。

探索 NeMo 護欄

參與 StorageReview

電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱