Baklib如何在AI浪潮中捍衛(wèi)公司數(shù)據(jù)安全
來源:巴克利布
公司不應(yīng)為了獲得 AI 的好處而將安全數(shù)據(jù)置于風(fēng)險之中。以下是 Baklib 為給您帶來 AI 創(chuàng)新并保護您的公司數(shù)據(jù)安全所采取的措施。
安全始終是 Baklib 的首要考慮因素,尤其是在客戶數(shù)據(jù)安全方面。得益于人工智能的最新進展,科技界對安全性的關(guān)注從未如此嚴(yán)格。在我們努力發(fā)布 Baklib 中可以使用的不斷增長的人工智能功能的同時,我們也在努力增強我們的安全功能。幸運的是,如果您已經(jīng)擁有堅實的基礎(chǔ),那么這有點簡單。
安全和保護的基礎(chǔ)Baklib 遵循保護客戶數(shù)據(jù)的最佳做法。您可以在我們的安全頁面上完整閱讀有關(guān)我們的安全和合規(guī)做法,但您可以在此處簡要了解您需要了解的內(nèi)容。
無論是業(yè)務(wù)連續(xù)性還是樓宇訪問、配置管理還是密鑰輪換,我們都會監(jiān)控標(biāo)準(zhǔn)并捕獲工件以支持我們的合規(guī)性。我們會定期審查行業(yè)標(biāo)準(zhǔn)和隱私法規(guī),并根據(jù)需要調(diào)整內(nèi)部控制。除了我們的年度 SOC 2 審計以證明我們?nèi)甑陌踩O(jiān)督外,我們一直在努力為您最重要的數(shù)據(jù)創(chuàng)建一個安全可靠的環(huán)境。
Baklib、AI 和您的公司數(shù)據(jù)我們不僅注重安全,而且同樣堅信創(chuàng)新。我們一直在尋找方法來集成新功能和新能力,從而為產(chǎn)品增加價值。不可否認(rèn),人工智能已經(jīng)發(fā)展到可以合法補充許多 SaaS 產(chǎn)品(包括 Baklib)的地步。不考慮人工智能及其對 Baklib 的潛力絕對不是一種選擇,這就是為什么我們?nèi)绱伺Φ乇M快將這些創(chuàng)新安全地帶給我們的產(chǎn)品和客戶。
生成式人工智能可能被證明是我們這個時代最具變革性的技術(shù)進步之一,但它也有其獨特的問題。這讓我們回到了客戶數(shù)據(jù)的神圣性問題上。客戶和公司對將敏感信息指向新的和未知的來源猶豫不決是很自然的。我們開始看到一些重復(fù)的問題:我的信息去哪兒了?它將如何使用?誰負(fù)責(zé)保護它?它會在那里保留多久?
當(dāng) Baklib 開始探索第三方 AI 服務(wù)時,我們制定了明確的安全原則,圍繞三個核心主題:我們使用的平臺、我們收集的客戶數(shù)據(jù)以及我們管理數(shù)據(jù)存儲和刪除的方式。)
對第三方人工智能平臺進行持續(xù)評估需要明確的是:在未徹底審查其技術(shù)、安全合規(guī)性、服務(wù)條款和隱私慣例的情況下,我們不會允許任何AI 合作伙伴訪問 Baklib 的寶貴數(shù)據(jù)。我們在與第三方合作時已經(jīng)遵守了一套明確的標(biāo)準(zhǔn),AI 供應(yīng)商也不例外。我們將審查他們的業(yè)績記錄和基礎(chǔ)設(shè)施的完整性,然后通過合同要求他們遵守隱私和安全規(guī)范。
這不是由一個人做出的決定,而是一個由各領(lǐng)域?qū)<覐陌踩嵌裙餐瑓f(xié)作的過程。我們會評估相關(guān)數(shù)據(jù)的重要性、公司的健康狀況、托管和工具的完整性以及合規(guī)記錄(例如:外部審計、滲透測試等)。供應(yīng)商只有在獲得我們首席技術(shù)官的正式認(rèn)可后才可以接觸 Baklib 生產(chǎn)數(shù)據(jù),并且根據(jù)標(biāo)準(zhǔn),該合作關(guān)系將至少每年重新驗證一次。
使用更少的數(shù)據(jù)做更多的事情由于人工智能訓(xùn)練模型的性質(zhì),數(shù)據(jù)安全在人工智能中變得更加復(fù)雜。供應(yīng)商傳統(tǒng)上處理或存儲客戶數(shù)據(jù),而人工智能提供商則尋求通過整合盡可能多的數(shù)據(jù)集來訓(xùn)練他們的模型。
雖然訓(xùn)練模型是 AI 服務(wù)中自然而必要的一部分,但 Baklib 將僅根據(jù)手頭的任務(wù)限制客戶數(shù)據(jù)的發(fā)布。我們將只向第三方模型提供執(zhí)行該功能所需的數(shù)據(jù),并禁止將其用于大規(guī)模模型訓(xùn)練。這直接反映了 OpenAI 的數(shù)據(jù)使用政策,該政策規(guī)定:“默認(rèn)情況下,OpenAI 不會使用 API 數(shù)據(jù)來訓(xùn)練 OpenAI 模型或改進 OpenAI 的服務(wù)產(chǎn)品。”
但即使在客戶數(shù)據(jù)到達(dá) OpenAI 之前,它也首先被限制在 Baklib 端絕對需要的數(shù)據(jù)上,從而將絕大多數(shù)信息保留在 Baklib 受保護的托管環(huán)境中。簡而言之,我們不會簡單地打開客戶數(shù)據(jù)的閘門供 OpenAI 使用。相反,我們根據(jù)初始客戶任務(wù)在內(nèi)部檢索和協(xié)調(diào)數(shù)據(jù),只允許該信息部分進入 AI 流。
定期數(shù)據(jù)刪除與維護客戶數(shù)據(jù)無法永久存在,我們將使?jié)L動數(shù)據(jù)刪除成為任何 AI 提供商關(guān)系或自托管解決方案的標(biāo)準(zhǔn)條款。我們將通過制定滾動刪除規(guī)則來限制生成 AI 的數(shù)字領(lǐng)域。目標(biāo)是保持對所有客戶數(shù)據(jù)的積極控制,盡可能實施“生存時間”限制。
OpenAI 意識到許多用戶不希望保存他們的歷史記錄,因此他們提供了刪除過去提示的功能。同樣,根據(jù)他們的使用條款,“當(dāng)聊天記錄被禁用時,我們將保留新的對話 30 天,并僅在需要監(jiān)控濫用行為時才對其進行審查,然后永久刪除。”
雖然人工智能通常會從積累和聚合盡可能多的數(shù)據(jù)中受益,但我們認(rèn)為,對于 Baklib 用戶而言,數(shù)據(jù)刪除帶來的安心感超過了無限期保留的好處。
人工智能和未來生成式人工智能為用戶檢索和理解信息的方式提供了多種改進。雖然我們使用人工智能的方式僅受我們的想象力限制,但我們將確保以應(yīng)有的謹(jǐn)慎和一致性來對待它。我們的第三方供應(yīng)商流程經(jīng)過了時間的考驗(并且每年都會接受審核),人工智能提供商將與訪問 Baklib 的任何其他供應(yīng)商一樣接受同樣的審查。
在我們繼續(xù)探索機器學(xué)習(xí)的潛在途徑時,我們不會在此過程中損害我們的基本安全地位。我們明白,如果我們削弱了對產(chǎn)品的信任和信心,那么人工智能的好處就一無所獲。我們?nèi)匀粓孕乓粋€基本事實,即現(xiàn)成的知識來源可以讓人們發(fā)揮出最佳水平,我們只會在能夠改進 Baklib 的范圍內(nèi)利用人工智能的能力。
親身體驗 Baklib 平臺的強大功能——參加我們的交互式產(chǎn)品之旅!
- 免責(zé)聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認(rèn)可。 交易和投資涉及高風(fēng)險,讀者在采取與本文內(nèi)容相關(guān)的任何行動之前,請務(wù)必進行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產(chǎn)生的任何金錢損失負(fù)任何責(zé)任。