微軟的ChatGPT Bing問題限制正在造成更多的問題,而不是回答

image3.jpg (圖片3)

必應的人工智慧聊天機器人尚未釋出給公眾使用;然而,部分使用者已經獲得早期存取權,並且他們對於分享自己的使用經驗毫不避諱。

許多使用者已把測試聊天機器人的能力及揭露其缺陷視為自己的任務。

從揭露開發人員內部使用的機密代號,到向《紐約時報》記者表達愛意並要求他離開妻子,到希望自己是有生命的,這個聊天機器人毫無疑問地行為失樂著。因此,微軟決定收緊聊天機器人的韁繩。從上週五開始,聊天機器人每次會話的問題限制為五個,每天聊天限制為50次。

此外: 如何規避新的Bing等待清單並更早獲得訪問權限

微軟在一篇部落格文章寫道:"在新的必應中,長時間的聊天會話可能會混淆聊天模型。根據我們的數據,絕大多數的使用者可以在五個對話輪內找到他們所需的答案。"

然而,此解決方案未解決聊天機器人回應的基礎問題,或者它們的模型訓練方式。

反而導致和聊天機器人對話變得非常困難。

另外: Bing的人工智慧聊天機器人已經幫我解決了我對ChatGPT的最大問題

作為範例提示,我試著讓聊天機器人幫我撰寫一封信。但當我完成所需的所有更改後,我甚至無法進入郵件 - Bing 聊天機器人已經將我踢出。

image4.jpg

很容易想像,有人想要完善他們的程式碼或撰寫完美的文章時,可能需要超過五個提示才能獲得他們想要的結果。在對話中斷的情況下,聊天機器人對於大多數技術提示(例如以特定格式起草程式碼或文本)變得毫無用處,而這正是ChatGPT聲譽顯赫的地方。

同時: 我在使用 ChatGPT 幫助我更快速地修復代碼,但代價是什麼?

新的限制也削弱了擁有類似人類對話能力的聊天機器人的吸引力。我只是問了一個簡單的“嗨!今天感覺如何?”來開始聊天,但卻得到了一個簡短的回答:“對不起,我不想繼續這個對話。我還在學習,感謝您的諒解和耐心🙏”。

圖片2.jpg

這個回復與ChatGPT的回復形成了鮮明對比,ChatGPT承認它無法感受,但仍然友善地回答您的問題並詢問如何進一步協助您。

圖片1.jpg

嘗試避免爭議,微軟刪除了聊天機器人的獨特和有用的特性,而留下了一個感覺像展示版的東西。儘管略顯混亂,原版比Bing目前的版本更有用和令人興奮。

相關文章

查看更多 >>
  • Chat GPT 是否涉嫌剽窃?

    Chat GPT是否為無抄襲的?瞭解更多關於Chat GPT在潛在的抄襲問題和最佳的為製造人工智慧內容而設計的抄襲檢查工具。

  • ChatGPT 內容的 11 個缺點

    研究人員發現ChatGPT內容中令人意外的缺陷。以下是如何發現它們。

  • ChatGPT 字數限制

    在 ChatGPT 上有字數限制嗎?有些人認為有,但其他人不確定。我們知道的是,有簡單的解決方法可以避免問題。