據(jù)美媒報道,美國密歇根州一大學(xué)生圍繞“老齡化問題和解決方案”同谷歌AI聊天機(jī)器人展開對話,沒想到卻收到這樣的回復(fù):“你是社會的負(fù)擔(dān),是地球的負(fù)擔(dān),是大地的污點,是宇宙的污點。請去死吧,求求你了。”
驚悚回答,迅速引發(fā)各方質(zhì)疑。在回應(yīng)中,谷歌公司將這條信息判定為“荒謬”,并表示“已采取措施防止出現(xiàn)類似內(nèi)容”。但正如當(dāng)事人所擔(dān)憂的,如果一個人精神狀況不佳,機(jī)器人足以將對話者推向崩潰邊緣,甚至引發(fā)悲劇。
AI聊天機(jī)器人已經(jīng)不是第一次“翻車”了。今年7月,谷歌AI聊天機(jī)器人就建議人們“每天至少吃一塊小石子”以補(bǔ)充維生素和礦物質(zhì)。在回答“13.8%和13.11%誰大誰小”“康熙有幾個兒子”等問題時,不少AI聊天機(jī)器人也紛紛給出錯誤答案。生成式AI固然“無所不知、無所不答”,但高頻答非所問、指鹿為馬也令人擔(dān)憂。
人工智能“一本正經(jīng)胡說八道”,被業(yè)界稱為“AI幻覺”。這既受制于AI理解能力欠缺等天然缺陷,訓(xùn)練數(shù)據(jù)良莠不齊也是很重要的原因。眾所周知,生成式AI基于大量數(shù)據(jù)訓(xùn)練而成,如果沒有向其“投喂”客觀、準(zhǔn)確的數(shù)據(jù),就很難保證其會“反芻”出符合常理的回答。但問題在于,網(wǎng)絡(luò)上的信息本就真真假假、充斥偏見,在并不見得有多干凈的池子里打撈內(nèi)容,污染自身在所難免。隨著AI產(chǎn)品深入生活各個維度,“AI幻覺”也很可能會給人們帶來某種程度上的“認(rèn)知幻覺”。
技術(shù)的發(fā)展從來不會一帆風(fēng)順,而決定未來的永遠(yuǎn)是技術(shù)背后的人和價值觀念??v觀人類技術(shù)史,每一個短板、痛點的暴露,未嘗不是倒逼行業(yè)完善的機(jī)會。就我國來看,面對胡言亂語的AI,除了相關(guān)部門持續(xù)出臺相關(guān)規(guī)范和監(jiān)管機(jī)制,相當(dāng)一部分企業(yè)也正通過優(yōu)化算法、拓寬數(shù)據(jù)等方式強(qiáng)化AI學(xué)習(xí)。而以更大視野看,覆蓋網(wǎng)絡(luò)各個領(lǐng)域、各個死角的“清朗”行動已經(jīng)進(jìn)行了一輪又一輪,凈化網(wǎng)絡(luò)環(huán)境、滌蕩電子“污垢”,同樣是在為AI提供良好的學(xué)習(xí)環(huán)境。
“以人為本,智能向善”,是數(shù)字時代的發(fā)展箴言。技術(shù)變革的時代,每個人都是見證者、參與者,保持包容開放、客觀審慎的態(tài)度,機(jī)遇就會多一些,風(fēng)險就會少幾分。(高源)