找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 33|回复: 0

請務必檢查產生的內容是否意外包含敏感資料

[复制链接]

1

主题

0

回帖

5

积分

新手上路

积分
5
发表于 2024-12-30 14:25:50 | 显示全部楼层 |阅读模式
嚴格審查輸出
人工智慧模型可能會根據提供的數據進行推斷,並根據現有數據集無意中產生第三方敏感內容。

您還應該徹底審查輸出,以確保它們不會無意中引用專有或敏感的客戶/業務資訊。

避免智慧財產權侵權
當使用 Midjourney 創建圖像或 ChatGPT 創建 德州 副本時,避免使用「X 風格」提示,這會引導模型模仿個人的作品。這可能違反版權法,而且坦白說,這是極其懶惰的,即使您引用的是其作品不再受版權保護的歷史藝術家。最近,藝術家們模仿他們的風格討論了使用生成式人工智慧的強烈反對的一個例子。但是,您絕對可以利用客戶品牌的語音指導語調來指導文案輸出。

除了不複製特定作者或藝術家的風格外,還要尊重所有智慧財產權。這包括文字、圖像、設計或任何其他可能受版權保護的內容。

不要盲目相信輸出
Full Fact 執行長 Will Moy 最近在英國線上危害和虛假資訊調查中就錯誤訊息和可信聲音表示,「透過自動生成的文字、圖像、影片和資料集引發公眾辯論的能力,為幾乎任何主張提供明顯可信的證據,這將改變遊戲規則」值得信賴的公開辯論是什麼樣子,以及很容易揚起太多灰塵,以至於沒有人能看到正在發生的事情。這是一種非常成熟的假訊息策略。

作為爭取透明公共話語的民主社會的成員,我們必須認識到我們在抵制人工智慧被輕易利用來傳播可能對我們的生活方式造成重大損害的虛假訊息方面所發揮的作用。培育資訊社會的責任不僅在於事實查核者和官方當局,還在於我們作為內容創造者、管理者和資訊消費者。

ChatGPT 等大型語言模型有兩個重大問題。第一個是幻覺——指的是產生不基於輸入資料或顯著偏離輸入中存在的事實資訊的輸出。其次,模型的好壞取決於它們所訓練的資料——如果訓練資料包含錯誤訊息,模型就可以學習和複製它。

遺憾的是,沒有技術解決方案來驗證輸出是否確實正確。自動事實查核已經存在一段時間了,雖然它在利用可用的權威資料驗證一系列基本事實斷言方面取得了重大進展,但它仍然有其局限性。到目前為止,還沒有任何工具可以完全自動化地以 100% 的準確率檢查其他工具的輸出。

挑戰在於上下文 - 全面事實檢查所需的複雜性和上下文敏感性仍然超出了全自動系統的範圍。主張的措詞、時間或上下文的細微變化可能使其或多或少合理。當相關性被誤認為是因果關係時,即使是完全準確的統計數據也可能會產生誤導(例如,按年份,在泳池中溺水的人數與尼古拉斯·凱奇主演的電影數量相關)。

那麼,我們如何利用人類的推理和決策能力來確保事實和數據在正確的背景下得到驗證和使用呢?

透過多個第三方可信任來源驗證來源、資料和事實
不要相信所提供的資訊的表面價值。養成與多個可信來源交叉核對人工智慧生成內容中呈現的任何事實、數據或來源的習慣。這可能包括信譽良好的新聞媒體、政府資料庫或學術期刊。

不要信任生成式人工智慧工具產生的連結;找到你自己的
雖然像 ChatGPT 這樣的人工智慧模型可能會建議與該主題相關的鏈接,但在使用它們之前驗證這些鏈接至關重要。確保連結有效、網域信譽良好、特定頁面相關且可靠。在許多情況下,最好從您熟悉的成熟、值得信賴的網站中找到自己的來源。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Discuz! X

GMT+8, 2025-1-20 01:37 , Processed in 0.095117 second(s), 18 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表