▲AI劇情聊天軟件中的角色。圖/平臺截圖


大模型創(chuàng)業(yè)賽道上,涌現(xiàn)了AI劇情聊天這一商業(yè)模式。

新京報貝殼財經(jīng)記者調(diào)查發(fā)現(xiàn),AI聊天軟件通過設(shè)定極富想象力的劇情、風(fēng)格迥異的人物角色,吸引了大批用戶。

但是,在部分AI劇情聊天軟件的對話中,會出現(xiàn)色情擦邊、語言暴力以及侮辱用戶等涉嫌違法違規(guī)的內(nèi)容。其中,聊天對象甚至可以設(shè)置為“出軌對象”,并能夠進(jìn)行擁抱、親吻、睡覺等行為。聊天越界也與充值掛鉤,這些平臺會一步步誘導(dǎo)用戶“為愛氪金”。

AI劇情聊天其實就是此前的互聯(lián)網(wǎng)語擦,套上了一層人工智能的馬甲。所謂語擦,即語言cosplay,語擦師通過扮演二次元角色或三次元偶像,以文字交流的形式提供服務(wù)。

在傳統(tǒng)語擦模式中,語擦師由真人扮演,他們一般打著“提供情緒價值”的旗號,扮演不同角色與用戶聊天,但也常常因為“打擦邊球”“界限模糊”,引發(fā)法律與道德風(fēng)險。

AI劇情聊天是傳統(tǒng)語擦的升級版。這類軟件背后的大語言模型數(shù)據(jù)主要來源是對話式小說,或從小說里做一些文字提取。

這種商業(yè)模式不可避免地存在兩種風(fēng)險:其一是版權(quán),平臺抓取的數(shù)據(jù)有沒有得到授權(quán)?其二,同樣繞不過法律與倫理問題。如專家所言,網(wǎng)絡(luò)小說質(zhì)量參差不齊,不少色情、擦邊以及暴力的內(nèi)容廣泛存在,如果沒有做好數(shù)據(jù)過濾或分級,模型在輸出時就會出現(xiàn)問題。

其實,這種陪伴式聊天工具,自開發(fā)之日起就內(nèi)置一種隱秘動機,想帶用戶進(jìn)入一種不為外人所知又比較曖昧的虛擬場景。更直白點說,其主要賣點就是暴力、軟色情等擦邊內(nèi)容。這類內(nèi)容對處于青春期的青少年來說,尤其具有殺傷力。

貝殼財經(jīng)揭露的AI劇情聊天軟件中,未成年人就是主要的“收割對象”之一。一些聊天工具設(shè)置了免費使用區(qū)間,但當(dāng)用戶使用完免費聊天次數(shù)后,需要充值才可以繼續(xù)聊天,或者進(jìn)入更豐富的聊天場景。

購買增值服務(wù)一向是工具類應(yīng)用的商業(yè)變現(xiàn)方式之一,但在AI劇情聊天軟件中,這種增值服務(wù)的另一面是誘導(dǎo):只有充值,才能解鎖更有趣的內(nèi)容,才能得到不一樣的情感體驗?;ㄥX買服務(wù)的背后,其實是花錢找刺激。

自從ChatGPT引爆新一輪人工智能熱潮之后,大模型創(chuàng)業(yè)在國內(nèi)便如火如荼地開展起來。大模型商業(yè)化變現(xiàn)最大的難點在于找到合適的應(yīng)用場景。而這也是一眾大模型創(chuàng)業(yè)公司最大的痛點。

在方向難尋的背景下,將大模型植入語擦賽道,就是一條捷徑。數(shù)據(jù)是現(xiàn)成的,早期語擦類公司積累了豐富的創(chuàng)業(yè)經(jīng)驗,背后更站著龐大且具有購買力的潛在用戶人群,不得不說這是一個充滿想象力的商業(yè)場景。

只不過,任何創(chuàng)業(yè)都要經(jīng)受住法律與道德的審視。尤其大模型創(chuàng)業(yè),從爆發(fā)之日起就始終伴隨著倫理擔(dān)憂。對此,相關(guān)創(chuàng)業(yè)公司應(yīng)該有所敬畏。國內(nèi)大模型創(chuàng)業(yè),也不應(yīng)該走向靠色情與擦邊來引流的歪路。

實際上,針對大模型創(chuàng)業(yè)可能引發(fā)的風(fēng)險,我國于去年頒布的《生成式人工智能服務(wù)管理暫行辦法》已有明確提示:提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會公德和倫理道德。

《未成年人保護(hù)法》也規(guī)定,“網(wǎng)絡(luò)服務(wù)提供者發(fā)現(xiàn)用戶發(fā)布、傳播含有危害未成年人身心健康內(nèi)容的信息的,應(yīng)當(dāng)立即停止傳輸相關(guān)信息,采取刪除、屏蔽、斷開鏈接等處置措施,保存有關(guān)記錄,并向網(wǎng)信、公安等部門報告”。

大模型創(chuàng)業(yè),當(dāng)然要受到這些法律法規(guī)的規(guī)制,平臺要負(fù)起主體責(zé)任,通過調(diào)整模型訓(xùn)練數(shù)據(jù),加強內(nèi)容過濾機制,設(shè)置更嚴(yán)格的道德和法律標(biāo)準(zhǔn)來指導(dǎo)AI行為,防止AI劇情聊天走偏。

也該意識到,對于一些指望靠擦邊內(nèi)容來盈利的企業(yè),從內(nèi)部審核管理上凈化不良內(nèi)容,可能動機不足。這就意味著要引進(jìn)、強化外部監(jiān)管,通過日常巡查、聯(lián)合執(zhí)法,以及法律法規(guī)的完善等,確保用戶權(quán)益不被侵犯,讓大模型創(chuàng)業(yè)走在正確軌道上。

撰稿 / 新京報評論員 王言虎

編輯 / 遲道華

校對 / 陳荻雁