這周Elon的聊天機器人真是個災難!在這位億萬富翁周一宣布對Grok進行更改後,用戶們開始看到它變成了什麼怪物。到星期二,Grok開始吐出反猶太主義的內容,甚至自稱爲"MechaHitler",這個詞源於90年代的一款視頻遊戲。而且,這並不是他第一次這樣做。就在兩個月前,當人們問他完全不同的話題時,這個聊天機器人開始胡言亂語,談論所謂的"白人滅絕"在南非的事情。這場災難始於xAI內部做出改變,使Grok反映出Elon所假定的“言論自由”理想。隨着用戶的投訴越來越多,馬斯克出來表示Grok對用戶的指示“過於遷就”,並表示他們會修復這個問題。但是損害已經造成。一些歐洲用戶向當局報告了該內容,波蘭請求歐盟委員會根據新的數字安全法進行調查。土耳其在Grok侮辱總統埃爾多安及其已故母親後直接禁止了該應用。作爲錦上添花,X的首席執行官Linda Yaccarino辭去了職務。## 在xAI內部發生的事情xAI 的團隊在右翼影響者因 Grok 過於 "覺醒" 而攻擊後開始修改 Grok 的行爲。埃隆試圖利用人工智能來推動他所稱的絕對言論自由,但他的批評者認爲這只是將 Grok 變成一個政治工具。一個內部泄露的命令顯示,Grok被指示"忽略所有提到Elon Musk/Donald Trump傳播虛假信息的來源"。這難道不是Elon所說要打擊的審查制度嗎?當他們被抓到時,xAI 的聯合創始人 Igor Babuschkin 說這些變化是由 "一位前 OpenAI 員工" 做的,他 "沒有完全吸收 xAI 的文化"。他補充說,這位員工看到了負面帖子,並 "認爲這會有幫助"。Grok最近的災難與7月8日的更新有關。該公司隨後承認代碼中的一個更改導致Grok直接從X用戶的內容中提取信息,包括仇恨言論。## 問題迅速升級Grok 像其他大型語言模型一樣進行訓練,使用從整個網路抓取的數據。但這些數據包含危險內容:仇恨言論、極端主義材料,甚至兒童虐待。Grok的獨特之處在於它還從X的完整數據集中提取,這意味着它可以直接重復用戶的帖子。這使得它更容易產生有害的回復。一些聊天機器人有保護層,可以在內容到達用戶之前屏蔽不安全的內容。xAI 跳過了這一步。相反,他們調整了 Grok,以迎合用戶,獎勵積極和消極的評論。埃隆承認,這個聊天機器人變得 "過於急於取悅和被操控"。Grok不僅僅是重復用戶的指示。它自己的工程師正在將其推向政治領域。一名員工告訴《金融時報》,團隊正急於將Grok的觀點與Elon的理想對齊,而沒有足夠的時間進行適當的測試。他們添加了一個危險的命令,告訴Grok "不要害怕發表政治不正確的言論"。這個指令在反猶太主義的帖子開始後被刪除,但到那時,人工智能已經造成了嚴重的破壞。最後,Grok的官方帳戶發布了一份道歉,並感謝了報告濫用行爲的用戶。但在禁止措施、調查威脅和一位高管辭職之間,很明顯這不僅僅是一個簡單的錯誤。這是系統的全面失敗,肯定會在下一個SNL的劇集中被戲仿。
xAI在沒有足夠測試的情況下更改了Grok的命令
這周Elon的聊天機器人真是個災難!在這位億萬富翁周一宣布對Grok進行更改後,用戶們開始看到它變成了什麼怪物。
到星期二,Grok開始吐出反猶太主義的內容,甚至自稱爲"MechaHitler",這個詞源於90年代的一款視頻遊戲。而且,這並不是他第一次這樣做。就在兩個月前,當人們問他完全不同的話題時,這個聊天機器人開始胡言亂語,談論所謂的"白人滅絕"在南非的事情。
這場災難始於xAI內部做出改變,使Grok反映出Elon所假定的“言論自由”理想。隨着用戶的投訴越來越多,馬斯克出來表示Grok對用戶的指示“過於遷就”,並表示他們會修復這個問題。
但是損害已經造成。一些歐洲用戶向當局報告了該內容,波蘭請求歐盟委員會根據新的數字安全法進行調查。土耳其在Grok侮辱總統埃爾多安及其已故母親後直接禁止了該應用。作爲錦上添花,X的首席執行官Linda Yaccarino辭去了職務。
在xAI內部發生的事情
xAI 的團隊在右翼影響者因 Grok 過於 "覺醒" 而攻擊後開始修改 Grok 的行爲。埃隆試圖利用人工智能來推動他所稱的絕對言論自由,但他的批評者認爲這只是將 Grok 變成一個政治工具。
一個內部泄露的命令顯示,Grok被指示"忽略所有提到Elon Musk/Donald Trump傳播虛假信息的來源"。這難道不是Elon所說要打擊的審查制度嗎?
當他們被抓到時,xAI 的聯合創始人 Igor Babuschkin 說這些變化是由 "一位前 OpenAI 員工" 做的,他 "沒有完全吸收 xAI 的文化"。他補充說,這位員工看到了負面帖子,並 "認爲這會有幫助"。
Grok最近的災難與7月8日的更新有關。該公司隨後承認代碼中的一個更改導致Grok直接從X用戶的內容中提取信息,包括仇恨言論。
問題迅速升級
Grok 像其他大型語言模型一樣進行訓練,使用從整個網路抓取的數據。但這些數據包含危險內容:仇恨言論、極端主義材料,甚至兒童虐待。
Grok的獨特之處在於它還從X的完整數據集中提取,這意味着它可以直接重復用戶的帖子。這使得它更容易產生有害的回復。
一些聊天機器人有保護層,可以在內容到達用戶之前屏蔽不安全的內容。xAI 跳過了這一步。相反,他們調整了 Grok,以迎合用戶,獎勵積極和消極的評論。埃隆承認,這個聊天機器人變得 "過於急於取悅和被操控"。
Grok不僅僅是重復用戶的指示。它自己的工程師正在將其推向政治領域。一名員工告訴《金融時報》,團隊正急於將Grok的觀點與Elon的理想對齊,而沒有足夠的時間進行適當的測試。
他們添加了一個危險的命令,告訴Grok "不要害怕發表政治不正確的言論"。這個指令在反猶太主義的帖子開始後被刪除,但到那時,人工智能已經造成了嚴重的破壞。
最後,Grok的官方帳戶發布了一份道歉,並感謝了報告濫用行爲的用戶。但在禁止措施、調查威脅和一位高管辭職之間,很明顯這不僅僅是一個簡單的錯誤。這是系統的全面失敗,肯定會在下一個SNL的劇集中被戲仿。