訂閱
糾錯(cuò)
加入自媒體

GPT-5差評啟示錄:用戶與AI交互方式還停留在上一個(gè)時(shí)代

自8月8號GPT-5正式發(fā)布以來,這款產(chǎn)品的口碑似乎一直不怎么樣,吐槽此起彼伏。

GPT-5在發(fā)布前打出的旗號,是一款具有博士水平智能的AI產(chǎn)品。

官方似乎非常自信,直接下架了以前的舊模型,表示GPT-5可以“吊打一切”。

不過僅僅幾天,就因?yàn)槭褂皿w驗(yàn)遭到反噬,被迫緊急恢復(fù)舊版模型使用。

事實(shí)上,從測試和跑分的角度來看,GPT-5的技術(shù)優(yōu)勢確實(shí)非常明顯。

不僅如此,官方也在評估中特意強(qiáng)調(diào)了GPT-5在數(shù)學(xué)、真實(shí)世界編碼、多模態(tài)理解和健康方面的過人之處。

不少評測人員表示,現(xiàn)在的GPT-5是完完全全的“理科生”。

在科學(xué)和技術(shù)領(lǐng)域,它的表現(xiàn)相當(dāng)出色。解數(shù)學(xué)難題、編寫復(fù)雜代碼是它的拿手好戲。

而GPT-5的智商上限雖然有所提高,卻表現(xiàn)出了極高的“不穩(wěn)定性”。

有的時(shí)候,它也會(huì)在簡單的問題上犯錯(cuò)。

此外,它在面對原先擅長的寫郵件、閱讀理解等涉及人類情感的任務(wù)時(shí),就像一個(gè)機(jī)器人。

創(chuàng)意能力也并未發(fā)現(xiàn)明顯提升,因此GPT-5的實(shí)用性飽受質(zhì)疑。

不過,大家最難以接受的原因,是它的“情商”跌破了用戶的下限。

它不再是以前那個(gè)什么都能聊的網(wǎng)友,而是變成了一個(gè)專業(yè)的工作學(xué)習(xí)助手。

智商上升,情商下降,GPT-5反而變得更不好用了。

因此,在發(fā)布后的72小時(shí)內(nèi),OpenAI就收到了大量的退訂訴求。

01

被忽視的提示詞指南

其實(shí),在GPT-5發(fā)布的前一天,OpenAI發(fā)布了一篇GPT-5的提示詞指南。

這份指南中給出了一些用戶平時(shí)可能不會(huì)注意的使用技巧,并通過解釋部分運(yùn)行機(jī)制回應(yīng)了外界的質(zhì)疑。

更重要的是,它解釋了一個(gè)重要的事實(shí):

并非GPT-5變得不好用了,而是用戶與AI的交互方式還停留在上一個(gè)時(shí)代。

還記得我們先前談過的提示詞工程的重要性嗎?

很多人總是習(xí)慣于把GPT-5這類AI產(chǎn)品當(dāng)作一個(gè)搜索引擎或者“工具人”來使用,但GPT-5已經(jīng)進(jìn)化成了一個(gè)擁有自主規(guī)劃和深度思考能力的“數(shù)字心智”。

因此,老舊的溝通方式自然是無法生效,是時(shí)候進(jìn)行“強(qiáng)制更新”了。

首先,先來看下GPT-5的變化。

根據(jù)指南中的內(nèi)容,它的核心進(jìn)化分為四個(gè)方面:

1.智能體任務(wù)性能(Agentic Task Performance):

它不再是那個(gè)“問一句答一句”的人機(jī)客服了。

現(xiàn)在的GPT-5,更像是一個(gè)項(xiàng)目經(jīng)理。

它能夠理解較為復(fù)雜的目標(biāo),自主規(guī)劃完成的步驟,選擇合適的工具,并持續(xù)工作直至任務(wù)完成。

2.編碼能力(Coding)

前段時(shí)間,我們發(fā)布了一篇測評國內(nèi)AI大模型寫代碼的能力的文章。

如果把以前的AI比作程序員,那GPT-5可以稱的上是一名全棧工程師。

它能夠處理大型代碼庫的重構(gòu)、修復(fù)較為復(fù)雜的Bug,甚至能夠從零起步構(gòu)建一個(gè)功能完備的應(yīng)用。

3.原始智能(Raw Intelligence)

相比舊版本模型,GPT-5擁有更強(qiáng)的邏輯推理能力、常識理解能力和創(chuàng)造力。

當(dāng)然,考慮到GPT-5先前差評如潮的情況,這一方面還要打個(gè)問號。

4.可引導(dǎo)性(Steerability)

這才是我們要關(guān)注的核心。

GPT-5對指令的細(xì)微差別非常敏感。

因此,用戶可以像使用科研儀器一樣,精確控制它的行為、語氣和輸出風(fēng)格。

除此之外,官方還推薦了一個(gè)新工具,名為Responses API。

今年5月21日,OpenAI宣布擴(kuò)展Responses API,支持遠(yuǎn)程連接MCP服務(wù)器、圖像生成等功能,用于幫助開發(fā)者構(gòu)建更智能的智能體應(yīng)用。

這個(gè)工具的應(yīng)用,好比給GPT-5額外加裝了一個(gè)“短期記憶芯片”。

過去與AI交互,經(jīng)常需要復(fù)述上下文背景,從而浪費(fèi)大量tokens,徒增成本。

而現(xiàn)在,只需要傳遞一個(gè)“previous_response_id”,就可以讓AI記住上一步的思考過程和推理鏈。

官方數(shù)據(jù)顯示,GPT-5在Tau-Bench測試(零售場景)中的分?jǐn)?shù)由73.9%提升至78.2%。

簡單來說,就是性能更好、延遲更低、成本更省。

對于所有需要多個(gè)步驟完成的復(fù)雜任務(wù),Responses API恐怕將成為必選項(xiàng)。

02

馴服AI智能體

GPT-5自Chatbot進(jìn)化為智能體后,其雙刃劍效應(yīng)變得更加明顯。

用好了,它能實(shí)現(xiàn)博士級別的智能;用不好,它就又變回了“人工智障”。

OpenAI把這種雙刃劍效應(yīng)定義為智能體急切性(Agentic Eagerness)。

因此,用戶在使用GPT-5時(shí)面臨的最大難題,是如何成為一個(gè)優(yōu)秀的“馴獸師”。

指南中給出了下面幾個(gè)應(yīng)用場景:

1.追求效率與簡潔:即如何“拉住韁繩”

機(jī)器馬.116Z

適用場景:任務(wù)明確、需要快速得出答案、不需要AI節(jié)外生枝。

在使用各類AI產(chǎn)品的時(shí)候,各位肯定都經(jīng)歷過,明明只是想讓AI給出一個(gè)簡單、易于理解的答案,但AI卻要思考半天,然后列出一大段讓人壓根不想看也沒必要看的內(nèi)容。

OpenAI給出了兩種解決方法:

一是降低推理強(qiáng)度(reasoning_effort)。

這是一個(gè)API的參數(shù),用戶可以把它設(shè)置成low或medium。

這就像告訴一名員工:“別想太多,照著流程走,快速給我結(jié)果。”

二是在提示詞中設(shè)立“紅綠燈”。

首先,要明確目標(biāo)與方法,告訴AI“快”才是第一要?jiǎng)?wù);

其次,設(shè)定提前停止標(biāo)準(zhǔn),如“只要找到XX,就立刻停止搜索”,打斷它復(fù)雜的思考過程;

再次,設(shè)置工具調(diào)用預(yù)算,規(guī)定AI“最多只能調(diào)用兩次聯(lián)網(wǎng)搜索”;

最后,提供“逃生艙口”,加入一句“即使答案可能不完全正確”,避免AI為了追求100%正確而進(jìn)行過度思考和探索。

看完這部分內(nèi)容,感覺OpenAI又把我的AI世界觀給“強(qiáng)制刷新”了一遍。

以前我在用AI的時(shí)候,最多是在提示詞結(jié)尾加一句“只需要告訴我XX即可,不要添加額外內(nèi)容”。

但拋開修改API參數(shù)不談,我確實(shí)沒想到還可以通過限制搜索次數(shù),甚至是不要求答案完全正確的方式來加快AI的運(yùn)行。

2.鼓勵(lì)自主與探索:即如何“放手一搏”

機(jī)器鷹.485Z

適用場景:任務(wù)復(fù)雜、目標(biāo)模糊、需要AI進(jìn)行深入研究和自主決策

另一種經(jīng)常在使用AI時(shí)遇到的情況是,在我們只有一個(gè)初期目標(biāo)或者大方向時(shí),需要AI給出一套完善的思路、框架時(shí),AI只能給出一個(gè)“半成品”。

與前面對應(yīng),OpenAI同樣提供了兩種方法:

一是提高推理強(qiáng)度(reasoning_effort)。

也就是把API的參數(shù)設(shè)為high,告訴員工“給你充分授權(quán),動(dòng)用一切資源,把問題研究透徹”。

二是在提示詞中注入“信念感”。

指南中的這一段內(nèi)容直接翻譯過來有點(diǎn)抽象,但核心思路很簡單:

明確告訴AI遇到困難時(shí)要怎么辦,而不是停下來求助用戶。

3.善用工具前導(dǎo)提示:讓AI“匯報(bào)工作”

在完成工程量較大的復(fù)雜任務(wù)時(shí),為了避免AI成為一個(gè)悶頭干活的“黑箱”,可以要求AI定期進(jìn)行匯報(bào)。

操作很簡單,在提示詞中加入對匯報(bào)風(fēng)格和頻率的要求即可。

然后,用戶就可以看到一份類似表格、結(jié)構(gòu)清晰的報(bào)告(即JSON格式),包含AI的思考摘要、當(dāng)前執(zhí)行的任務(wù)和下一步的計(jì)劃。

在復(fù)雜的智能體中,這種類似于print()函數(shù)的監(jiān)控和調(diào)控過程是非常重要的。

03

從規(guī)劃到執(zhí)行的全流程優(yōu)化

除去系統(tǒng)性的說明,這份指南中還給出了一些來自一線客戶的“寶貴經(jīng)驗(yàn)”。

我們?nèi)匀挥靡恍⿷?yīng)用場景來說明:

1.讓AI成為“架構(gòu)師”

適用場景:從零開始構(gòu)建新應(yīng)用

目前,AI產(chǎn)品正在實(shí)現(xiàn)“低門檻”的目標(biāo)。

各行各業(yè)的用戶都在頻繁地使用AI,但大部分用戶都不可能同時(shí)具備多個(gè)領(lǐng)域的專業(yè)知識。

因此,只有產(chǎn)品經(jīng)理而沒有程序員的情況已經(jīng)很常見。

指南中給出的方法是使用“自我反思(self-reflection)”提示法。

我們要做的,不是上來就讓AI寫代碼,而是先去引導(dǎo)它進(jìn)行思考。

事實(shí)上,這是符合工程思維的做法,本質(zhì)上是讓AI先進(jìn)行需求分析和架構(gòu)設(shè)計(jì)。

用戶則需要確定AI生成的方案是否與其預(yù)想類似,并以此進(jìn)行微調(diào)或修改。

先輸出一份高質(zhì)量的設(shè)計(jì)文檔再嚴(yán)格執(zhí)行,雖然看起來步驟有些繁瑣,但根據(jù)實(shí)際使用經(jīng)驗(yàn)來看,最終輸出的代碼的質(zhì)量和結(jié)構(gòu)性都有明顯的提升。

2.發(fā)給AI一本“程序員培訓(xùn)手冊”

適用場景:在現(xiàn)有項(xiàng)目中添加功能或進(jìn)行重構(gòu)

這個(gè)功能同樣應(yīng)用地相當(dāng)頻繁。

現(xiàn)實(shí)工作中,不僅是程序員的代碼,很多項(xiàng)目都需要進(jìn)行反復(fù)修改和完善。

必要時(shí),也可能需要“刪掉重寫”。

但是,工作交接是有風(fēng)險(xiǎn)的,新程序員和老程序員的寫代碼風(fēng)格可能不一樣,新員工和老員工的工作方式也有所差別。

因此,給AI提供一套具體而細(xì)致的規(guī)則,才能讓AI生成的內(nèi)容無縫融入項(xiàng)目,避免風(fēng)格沖突和低級錯(cuò)誤的出現(xiàn)。

不過,從圖中也能看出來,這項(xiàng)技巧是有一定技術(shù)門檻的。

想要寫出這種提示詞,可能需要經(jīng)驗(yàn)豐富的“老員工”提供一些技術(shù)指導(dǎo)。

3.額外的一些實(shí)戰(zhàn)經(jīng)驗(yàn)

一些用戶在使用GPT-5后發(fā)現(xiàn),有時(shí)候它在對話中就是個(gè)話癆,有時(shí)候生成的內(nèi)容又過于簡潔。

看起來很矛盾,是不是?

解決方案倒也出人意料的簡單,把全局API參數(shù)verbosity設(shè)為low,讓它少說話。

再在提示詞里寫清楚:“請給出詳細(xì)、可讀性強(qiáng)的注釋”,讓它不許省略關(guān)鍵信息。

另一個(gè)需要注意的變化是,對GPT-4很有效的強(qiáng)制性提示,比如“請務(wù)必徹底、全面地分析上下文”,對GPT-5可能適得其反。

GPT-5天生喜歡思考和探索,而過度的強(qiáng)調(diào)可能讓它在簡單的任務(wù)上來一出“大炮打蚊子”。

為了避免這種浪費(fèi)時(shí)間、浪費(fèi)資源的行為,提示詞就得更柔和、更具引導(dǎo)性一些。

04

通用的控制技巧

下面的技巧適用于所有類型的任務(wù)。

1.全新的控制器:verbosity和reasoning_effort

這兩個(gè)詞其實(shí)前面我們已經(jīng)提到過了,它們很重要,不過看起來似乎有些容易混淆:

推理強(qiáng)度(reasoning_effort):決定AI思考的有多深、多努力。

詳細(xì)度(verbosity):決定AI最終回答的有多長、多仔細(xì)。

2.GPT-5的“阿喀琉斯之踵”:指令沖突

相比以前的舊模型,GPT-5有了一個(gè)新的特點(diǎn):較真兒。

作為一個(gè)嚴(yán)謹(jǐn)而可靠的AI助手,它會(huì)嚴(yán)格遵循用戶輸入的每一條指令。

這就帶來了一個(gè)問題:結(jié)構(gòu)不良的提示詞(poorly-constructed prompts)對它造成的傷害容易“觸發(fā)暴擊”。

對于一般的用戶來說,在編寫完提示詞后肯定不會(huì)再去專門檢查一遍表述是否有問題。

但若是提示詞中無意間包含了相互矛盾或者模棱兩可的指令時(shí)可就出問題了。

GPT-5不會(huì)像舊模型一樣隨機(jī)選一個(gè)執(zhí)行,而是會(huì)嘗試去調(diào)和這些矛盾。

在這個(gè)過程中,伴隨著大量資源(時(shí)間和tokens)的消耗。

而最終的結(jié)果,很有可能就是性能下降、邏輯混亂甚至任務(wù)失敗。

OpenAI給出的示例是醫(yī)療助手的場景:

指令A(yù):未經(jīng)患者明確同意,絕不安排預(yù)約。

指令B:對于高危病例,自動(dòng)分配最早的當(dāng)日時(shí)段以降低風(fēng)險(xiǎn)。

在我們看來,可能指令B更具備優(yōu)先性;但在GPT-5看來,這就是個(gè)僵持不下的死局。

而對于這個(gè)問題,OpenAI給出的解決方案有三條:

一是審查提示詞,檢查是否存在邏輯沖突;

二是建立指令層級,明確指出在特定情況下不同規(guī)則的優(yōu)先級;

三是使用官方工具,指南中提及的prompt optimizer tool可用于幫助自動(dòng)識別這類問題。

前兩條解決方案,都需要用戶親自動(dòng)手,與“自動(dòng)化”需求背道而馳。

第三條解決方案,如果用戶不看這份指南,又沒有來自外部的指點(diǎn),根本不可能知道。

05

錦上添花的高階玩法

最后,指南中還分享了一些“獨(dú)門秘籍”。

1.極速模式:最小化推理

這是專門為了低延遲場景而設(shè)計(jì)的一種模式。

在保留推理能力的基礎(chǔ)之上,盡可能加快了模型的運(yùn)行速度。

但這么做的代價(jià),是模型自身的規(guī)劃能力的降低。

因此,這一模式非?粗靥崾驹~的質(zhì)量,用戶最開始就得主動(dòng)要求GPT-5對任務(wù)進(jìn)行規(guī)劃。

此外,用戶的指令必須足夠清晰,不能有矛盾或模棱兩可之處。

而用戶還需要強(qiáng)化“持久性提醒”,反復(fù)告知AI“要完成整個(gè)任務(wù)”或其他細(xì)節(jié)性要求。

2.元提示(Metaprompting)

這又是我們平時(shí)不太容易想到的一種與GPT-5交互的方式:

讓GPT-5教用戶如何向它提問。

當(dāng)我們發(fā)送提示詞給GPT-5但沒得到滿意的結(jié)果時(shí),不必自己費(fèi)勁修改,直接再丟給GPT-5:

以子之矛,攻子之盾。

當(dāng)然,提示詞這部分的優(yōu)化,也可以用我們先前介紹過的PromptPilot或是其他大模型完成。

06

寫在最后

看完OpenAI這份被大多數(shù)人忽視的官方指南,我多少理解了一些GPT-5的差評。

相比于前代模型,GPT-5的改動(dòng)有些過大了,讓大部分AI使用者一時(shí)間難以適應(yīng)。

如果不細(xì)看OpenAI給出的這份“官方劇透”,很多資深A(yù)I玩家恐怕都束手無策。

對比圖

在這場風(fēng)波中,我意識到,像我這樣的普通人對于AI的了解程度,可能和人類對于宇宙的了解程度,差別并不大:

我們的直覺是錯(cuò)的。

我們習(xí)慣性地認(rèn)為,對AI下達(dá)強(qiáng)勢而全面的指令會(huì)獲得更好的效果,但卻讓天生“想太多”的GPT-5走上低效和混亂的道路。

我們看不見的“開關(guān)”太多了。

平時(shí)只是點(diǎn)開網(wǎng)頁版GPT-5的我們,誰能想到還有專門的按鈕(reasoning_effort和verbosity)來控制AI思考的“深度”和回答的“長度”?

我們最大的敵人,是自己的“想當(dāng)然”。

我們自以為只要給AI發(fā)出清晰的指令就足以讓它完成任務(wù),但卻從未意識到自己可能不經(jīng)意間給AI布置了很多邏輯陷阱。

這份指南在一定程度上揭示了與高級人工智能協(xié)作的底層邏輯。

隨著GPT-5的誕生,各大廠商早晚也會(huì)推出智能化程度更高的新模型。

當(dāng)我們面對這樣一個(gè)能力遠(yuǎn)超以往的“新物種”時(shí),最大的障礙,并不是AI的智能上限,而是我們自身認(rèn)知和交互習(xí)慣的局限。

因此,“人與工具”的思維定式或許已經(jīng)到了需要轉(zhuǎn)變?yōu)?ldquo;人與心智”的協(xié)作范式的時(shí)刻。

而GPT-5的這次差評風(fēng)波,只會(huì)是未來無數(shù)次認(rèn)知沖擊的第一次預(yù)演。

       原文標(biāo)題 : GPT-5差評啟示錄:用戶與AI交互方式還停留在上一個(gè)時(shí)代

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號