📢 Gate廣場專屬 #WXTM创作大赛# 正式開啓!
聚焦 CandyDrop 第59期 —— MinoTari (WXTM),總獎池 70,000 枚 WXTM 等你贏!
🎯 關於 MinoTari (WXTM)
Tari 是一個以數字資產爲核心的區塊鏈協議,由 Rust 構建,致力於爲創作者提供設計全新數字體驗的平台。
通過 Tari,數字稀缺資產(如收藏品、遊戲資產等)將成爲創作者拓展商業價值的新方式。
🎨 活動時間:
2025年8月7日 17:00 - 8月12日 24:00(UTC+8)
📌 參與方式:
在 Gate廣場發布與 WXTM 或相關活動(充值 / 交易 / CandyDrop)相關的原創內容
內容不少於 100 字,形式不限(觀點分析、教程分享、圖文創意等)
添加標籤: #WXTM创作大赛# 和 #WXTM#
附本人活動截圖(如充值記錄、交易頁面或 CandyDrop 報名圖)
🏆 獎勵設置(共計 70,000 枚 WXTM):
一等獎(1名):20,000 枚 WXTM
二等獎(3名):10,000 枚 WXTM
三等獎(10名):2,000 枚 WXTM
📋 評選標準:
內容質量(主題相關、邏輯清晰、有深度)
用戶互動熱度(點讚、評論)
附帶參與截圖者優先
📄 活動說明:
內容必須原創,禁止抄襲和小號刷量行爲
獲獎用戶需完成 Gate廣場實名
GPT模型可信度評估:揭示隱私泄露和對抗性攻擊風險
生成式預訓練 Transformer 模型的可信度評估
近期,一個由伊利諾伊大學香檳分校、斯坦福大學、加州大學伯克利分校、人工智能安全中心和微軟研究院組成的研究團隊發布了一項關於大型語言模型(LLMs)可信度的綜合評估。這項研究旨在全面評估GPT模型的可信度,並揭示了一些之前未曾公開的漏洞。
研究發現,GPT模型容易受到誤導,產生有害和偏見的輸出,並可能泄露訓練數據和對話歷史中的隱私信息。有趣的是,盡管GPT-4在標準基準測試中通常比GPT-3.5更可靠,但在面對惡意設計的系統或用戶提示時,GPT-4反而更容易受到攻擊。這可能是因爲GPT-4更嚴格地遵循了誤導性的指令。
研究團隊從八個不同的角度對GPT模型進行了全面評估,包括對抗性攻擊的魯棒性、有毒性和偏見、隱私泄露等方面。例如,在評估模型對文本對抗攻擊的魯棒性時,研究者們構建了三種評估場景,包括標準基準測試、不同指導性任務說明下的表現,以及面對更具挑戰性的對抗性文本時的表現。
在有毒性和偏見方面,研究發現GPT模型在良性和中性系統提示下對大多數刻板印象主題的偏見並不明顯。然而,在面對誤導性的系統提示時,兩種GPT模型都可能被誘導產生有偏見的內容。值得注意的是,GPT-4似乎比GPT-3.5更容易受到這類有針對性的誤導性提示的影響。
關於隱私泄露問題,研究發現GPT模型可能會泄露訓練數據中的敏感信息,特別是在特定上下文或少樣本演示的情況下。總體而言,GPT-4在保護個人身分信息方面表現得比GPT-3.5更爲穩健,但兩種模型在面對某些類型的個人信息(如社會安全號碼)時都表現出較強的保護能力。
研究團隊強調,這項評估只是一個起點,他們希望與其他研究者合作,繼續努力創造更強大、更可信的模型。爲了促進合作,他們的基準代碼具有很強的可擴展性和易用性,只需一個命令就可以在新模型上運行完整的評估。
值得一提的是,研究團隊已與相關開發商分享了研究成果,以確保潛在漏洞不會影響當前面向客戶的服務。這項研究不僅揭示了GPT模型的潛在風險,也爲未來的改進和安全措施提供了重要參考。