動態:超強進化!GPT-4正在改進自己,近萬人聯名封殺
最近,似乎全世界都在圍剿ChatGPT。
前一陣由馬斯克、圖靈獎得主Bengio等大佬聯名發起的暫停高級AI研發的公開信,現在簽名已經上升到9000多人。
即使全世界都對超級AI如臨大敵,想趕緊懸崖勒馬,恐怕也為時已晚。
(資料圖片僅供參考)
因為,如今的AI,已經學會自我進化了!
前段時間,前谷歌大腦研究工程師Eric Jang發現:GPT-4能夠以合理的方式批評自己的成果。
與其為大型語言模型(LLM)尋找完美的提示(讓我們一步一步思考),不如讓LLM評估自己的輸出并立即糾正自己的錯誤。
甚至連特斯拉前AI總監,OpenAI研究科學家Andrej Karpathy大贊,這是一個很好的例子,說明我們還沒有看到GPT-4的最大能力。
在Eric Jang給出的例子中,曾看到微軟研究員發推說GPT-4根本無法寫出「不押韻」的詩歌。
然而,當再去詢問GPT-4是否完成了任務。這時,它道歉后,生成了一個不押韻的詩!可以說是滿分。
這恰恰印證了GPT-4是有「反思」能力的。
最近,來自美國東北大學、MIT等機構研究者提出了Reflexion。這一方法賦予智能體動態記憶,以及自我反思的能力。
論文地址:https://arxiv.org/abs/2303.11366
為了驗證方法的有效性,研究人員評估了智能體在AlfWorld環境中完成決策任務的能力,以及在HotPotQA環境中完成知識密集型、基于搜索問答任務的能力。
在這兩項任務的成功率分別為97%和51%。
Reflexion智能體的整體架構
有網友便表示,你可以通過要求 GPT-4 反思「你為什么錯了?」,并為自己生成一個新的提示,將這個錯誤原因考慮在內,直到結果正確,從而將GPT-4的性能提高驚人的30%。
另外,論文指出,在測試模型編寫代碼的能力時,Reflexion+GPT-4也顯著優于常規的GPT-4。
這樣看來,就像Eric Jang所說,
我們現在可以考慮一種「后綴提示工程」,而不是巧妙的「前綴提示工程」。這將鼓勵LLM在先前生成的解決方案中找到更正和不一致的地方。
本文摘自新智元,原文標題為《GPT-4超強進化,近萬人聯名封殺!白宮緊急開會,ChatGPT概念股暴跌》
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: