工具/原料:
系統(tǒng)版本:win10
品牌型號:聯(lián)想yoga13
軟件版本:chatgpt12.3
國內(nèi)chatgpt面臨的主要問題是什么:
1. 無法接入互聯(lián)網(wǎng)
與 Siri 或 Alexa 等其他人工智能助手不同,ChatGPT 不使用互聯(lián)網(wǎng)來查找答案。ChatGPT的知識是內(nèi)置的,這意味著ChatGPT無法接觸到人類所擁有的大量知識,可能無法回答訓練數(shù)據(jù)之外的問題,無法理解生成單詞的上下文語境或含義。只能根據(jù)給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率生成文本??赡懿粫看味蓟卮鸬猛耆B貫或與對話的上下文相關聯(lián),換句話說,ChatGPT 通過一系列猜測得出答案,這也是它可以將錯誤答案當成完全正確的原因之一。
2. 缺乏上下文知識(Context)
如果大語言模型在一家企業(yè)中應用,就必須了解這家企業(yè)既有的規(guī)章制度流程,甚至包括企業(yè)文化等;如果大語言模型能夠和個人用戶良好互動,就必須了解一個人的生平情況,教育背景,語言習慣等。由于它目前知識的封閉性,這些問題短期是無法通過OpenAI公司來解決的,屬于大數(shù)據(jù)模型下一階段重點突破的內(nèi)容。
3. 知識或事實的缺失
由于無法聯(lián)網(wǎng),目前的GPT3的訓練數(shù)據(jù)只是截至到2021年9月份,另外它所學習的知識也不一定是完整的。那么ChatGPT 有時會寫出看似合理但不正確或荒謬的答案。如果只是用于個人聊天或娛樂還是可以的,但這種事實和虛構的“幻覺”在涉及醫(yī)療建議或了解關鍵歷史的正確事實時,是尤其危險的。
4. 存在可能的偏見
ChatGPT 已可能會產(chǎn)生一些歧視性別、種族和少數(shù)群體的可怕答案。在早期ChatGPT版本中,據(jù)《獨立報》報道,在ChatGPT與用戶交流時,出現(xiàn)了侮辱用戶、對用戶撒謊的情形,稱用戶“像一個騙子、一個操縱者、虐待狂、魔鬼”。
5. 容易被引誘
外國網(wǎng)絡安全平臺GBHackers披露了,黑客通過ChatGPT在短時間內(nèi)生成完整的詐騙套路話術,并把ChatGPT包裝成“虛擬角色”,讓受害人以為自己“墜入愛河”,最終遭受詐騙。更厲害的黑客已經(jīng)開始利用ChatGPT批量生成勒索軟件與惡意代碼。黑客就是利用OpenAI的API接口,把GPT模型引入到一系列外部應用,以此繞開安全監(jiān)管。
總結:在更廣的領域內(nèi),ChatGPT還存在著法律合規(guī),數(shù)據(jù)隱私,知識產(chǎn)權,問題解答權限等更深層次的問題。這些顯然涉及了一個嶄新的領域,但是人類不斷地被推到一個一個新的領域,去解決一些人類以前從來沒解決的問題,而且是全社會各個專業(yè)的人來解決,不只是科技界的事情。
掃一掃 生活更美好