封面新聞記者 邊雪
贊譽累積數日之后,有史以來最強大的人工智能系統GPT-4最近如同在坐“過山車”,開始面對爭議與危機。
當地時間3月29日,在OpenAI公開發布GPT-4兩周后,馬斯克和一群人工智能專家和行業高管在一封公開信中稱,他們呼吁暫停六個月訓練比 GPT-4 更強大的系統,理由是人工智能的最新進展對社會和人類帶來了“深遠的風險”。
公開信部分內容。(圖片來源:官網截圖)
“先進的人工智能可能代表地球生命史上的深刻變化,應該以相應的關懷和資源來規劃和管理,”信中說,“不幸的是,這種級別的規劃和管理并沒有發生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人——甚至他們的創造者——可以理解、預測或可靠地控制?!?/p>
千人響應:叫停GPT-4后續AI大模型訓練
這封“叫停公開信”由非營利組織未來生命研究所(Future of Life Institute)發布。3月29日,封面新聞記者查看該公開信時發現,該網站顯示簽名者名單上共有 1125人,其中包括馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、《智人》作者尤瓦爾·諾亞·哈拉里,以及負責機器學習多項突破的一些最杰出的人工智能學者,但沒有 OpenAI 員工在這封信上簽名。
公開信部分簽名者的信息匯總(圖片來源:官網截圖)
據外媒報道, OpenAI CEO Sam Altman 的名字曾短暫出現,然后從簽名者名單中消失。至少有四名谷歌員工,包括其子公司 AI 實驗室 DeepMind 的三名員工、Stability AI的首席執行官 Emad Mostaque 也出現在了名單上。
“在一般任務上,現在人工智能系統變得與人類(一樣)具有競爭力,”公開信中寫道:“我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該自動化所有的工作,包括令人滿意的工作嗎?我們是否應該發展最終可能超越我們并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?此類決定不得委托給未經選舉的技術領導者?!?/p>
這封公開信還呼吁所有人工智能實驗室同意用六個月時間暫停訓練比GPT-4更強大的人工智能系統,并進行安全研究?!叭斯ぶ悄軐嶒炇液托袠I學者應該利用這次暫停,共同開發和實施一套,由獨立的外部學者嚴格審計和監督的先進人工智能設計和開發共享安全協議,”
除了呼吁暫停高級人工智能開發,直到共享此類安全協議設計由獨立專家開發、實施和審核,該公開信還詳細說明了具有人類競爭力的人工智能系統以經濟和政治破壞的形式對人類社會和文明造成的潛在風險,并呼吁開發人員與政策制定者就治理和監管機構進行合作。
“這些協議應確保遵守AI的系統是安全的,無可置疑?!边@封信的呼吁者指出,他們并不是在呼吁全面暫停 AI 開發,而是“從危險的競賽中退后一步”?!爸挥挟斘覀兇_信它們的影響將是積極的并且它們的風險將是可控的時候,才應該開發強大的人工智能系統?!?/p>
在該公開信上簽名的知名人工智能科學家、紐約大學心理系教授 加里·F. 馬庫斯(Gary F. Marcus)公開表示:“事實上,我的信念并沒有改變,我仍然認為大型語言模型與超級智能或人工智能(AGI)沒有多大關系;我仍然認為LLMS是通往AGI道路上的一個‘出口’,我的預測可能與馬斯克的不一樣,據我所知,他們貌似主要關注的是——計算機是否能迅速而徹底地自我改進?!?/p>
知名人工智能科學家、紐約大學心理系教授 加里·F. 馬庫斯(Gary F. Marcus)在公開信上簽名。(圖片來源:官網截圖)
盡管很多研究將人工智能風險等同于超級智能或人工智能的風險,但加里·F. 馬庫斯認為,實際上不需要超級智能,也能制造出嚴重的問題。加里·F. 馬庫斯認為,“AGI風險”是人類無法控制的超級智能機器的風險,在當前這并不需要擔心?!霸诙唐趦?,我擔心的是“MAI風險”-不可靠的普通AI(比如 Bing和GPT-4)正在進行廣泛應用,無論是在使用它的人數方面,還是在軟件對世界的訪問方面。前不久,一家名為Adept.AI的公司剛剛籌集了3.5億美元去實現這一目標,讓大型語言模型能夠訪問幾乎所有的東西(目標是‘在世界上任何軟件工具或API上增強你的能力’,盡管LLMs明顯傾向于幻覺和不可靠)?!?/p>
目前,這封僅僅出現數小時的公開信仍在持續發酵,在國外 AI 社區已經引起了極大的關注與討論,也有用戶對該公開信內容的真實性表示質疑。
但對人工智能產生威脅的擔心,已經從人工智能行業外溢。在這封公開信發布之前,當地時間3月27日,歐盟警察部隊歐洲刑警組織開展了對 ChatGPT 等先進人工智能的道德和法律問題的討論,并整理成《ChatGPT-大型語言模型對執法的影響》的報告,警告世人該系統可能被濫用于網絡釣魚企圖、虛假信息和網絡犯罪。
OpenAI承認1.2%ChatGPT Plus遭受信息泄露
實際上,在“神通廣大”的ChatGPT,用令人炫目的AI技術吸引全球科技愛好者使用的同時,用戶隱私和數據安全的危險也同樣存在。
在某用戶公開聲稱其ChatGPT聊天欄出現了他人的聊天記錄標題后,當地時間3月25日,OpenAI 在社交媒體表示,部分ChatGPT Plus服務訂閱用戶可能被泄露了部分個人隱私和支付信息,已將出現問題的ChatGPT下線,并與“Redis”數據平臺的維護人員合作修補了導致用戶信息泄露的漏洞。
該問題與 ChatGPT 使用開源 Redis 客戶端庫“Redis-py”有關,并由 OpenAI于當地時間3月20日進行的更改引入。
ChatGPT的開發人員使用“Redis”在服務器中緩存用戶信息,以避免為每個請求檢查數據庫,而將“Redis-py”用作 Python 接口的錯誤使用,導致 ChatGPT 用戶顯示屬于他人的聊天數據。
根據OpenAI的調查,活躍用戶的聊天記錄標題和新建對話的第一條消息在數據泄露中被暴露。該漏洞還暴露了1.2% ChatGPT Plus用戶的支付信息,包括名字和姓氏、電子郵件地址、支付地址、支付卡到期日期以及客戶卡號的最后四位數字。
“我們已經通知受影響的用戶,他們的支付信息可能已經泄露,但我們相信用戶數據不會持續存在風險,”除了在推文中表示用戶信息泄露的情況,OpenAI還描述了問題的技術細節以及公司采取的應對措施。
OpenAI回應用戶數據泄露的問題,并描述了問題的技術細節。(圖片來源:官網截圖)
這不是上周曝光的唯一ChatGPT安全問題。同樣在周五,情報公司GreyNoise就一項新的 ChatGPT 功能發出了警告,該功能通過使用插件擴展了聊天機器人的信息收集能力。
封面新聞記者注意到,OpenAI向有興趣將其插件與新功能集成的客戶提供的代碼示例包括用于“MinIO”分布式對象存儲系統的 docker映像。
OpenAI示例中使用的docker鏡像版本受“ CVE-2023-28432 ”影響,這是一個潛在的嚴重信息泄露漏洞,ChatGPT可以利用該安全漏洞獲取密鑰和 root 密碼。
“人工智能浪潮正在深刻賦能人類生產和生活的各個方面,基于“深度學習 大數據 高性能計算”的解決方案為許多復雜任務提供了有效解決途徑,在某些特定領域其能力已經接近甚至超越人類?!蔽靼步煌ù髮W教授、網絡空間安全學院副院長沈超表示,在美好藍圖之下,AI系統本身及其在數據、模型和代碼等方面的可信問題也逐漸暴露出來,AI的可信安全已經成為一個不容忽視的問題。
AI賽道的競爭上,跑得快很關鍵,考慮不翻車似乎更為重要。在以ChatGPT為代表的人工智能技術掀起新一輪的人工智能革命的當下,人類工作生活使用人工智能的頻次越來越高,潛在新型攻擊和內容合規等安全風險的出現,涉及AI產品使用的安全問題也應該成為目前及未來應該重視的問題。
截至發稿,OpenAI尚未對公開信作出任何回應。
【如果您有新聞線索,歡迎向我們報料,一經采納有費用酬謝。報料微信關注:ihxdsb,報料QQ:3386405712】
相關文章
猜你喜歡