1. GPT技術(shù)發(fā)展現(xiàn)狀與政策背景
Generative Pre-trained Transformer(GPT)系列模型自問世以來,迅速成為人工智能領(lǐng)域的核心驅(qū)動力之一。以O(shè)penAI推出的GPT-3、GPT-3.5及GPT-4為代表的大語言模型,已在自然語言處理、內(nèi)容生成、編程輔助等多個場景實現(xiàn)商業(yè)化落地。截至2023年,GPT-4已支持超過175個國家和地區(qū)的應(yīng)用部署,服務(wù)涵蓋教育、金融、醫(yī)療、媒體等關(guān)鍵行業(yè)。中國科技企業(yè)如百度、阿里、騰訊、科大訊飛也相繼推出“文心一言”、“通義千問”、“混元大模型”、“星火認(rèn)知大模型”等對標(biāo)產(chǎn)品。據(jù)《中國人工智能大模型地圖研究報告》顯示,2023年中國大模型市場規(guī)模同比增長128%,達(dá)到約147億元人民幣,預(yù)計2025年將突破400億元。技術(shù)的快速迭代與廣泛應(yīng)用,使得政府對AI生成內(nèi)容的合規(guī)性、數(shù)據(jù)安全、倫理風(fēng)險等問題的關(guān)注持續(xù)升溫。
2. 國內(nèi)外監(jiān)管動向?qū)Ρ确治?/p>
全球主要經(jīng)濟體已陸續(xù)啟動對生成式AI的立法與監(jiān)管進(jìn)程。歐盟于2024年正式通過《人工智能法案》(AI Act),明確將高風(fēng)險AI系統(tǒng)納入嚴(yán)格監(jiān)管范疇,要求生成式AI提供者披露訓(xùn)練數(shù)據(jù)來源,并標(biāo)注AI生成內(nèi)容。美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布《AI風(fēng)險管理框架》(AI RMF 1.0),推動聯(lián)邦機構(gòu)與私營部門建立統(tǒng)一的風(fēng)險評估標(biāo)準(zhǔn)。中國則在2023年7月由國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,自2023年8月15日起施行。該辦法要求提供生成式AI服務(wù)的企業(yè)履行安全評估、算法備案、數(shù)據(jù)來源合法性審查等義務(wù),并規(guī)定不得生成違法不良信息。北京、上海、深圳等地已開展試點監(jiān)管沙盒項目,探索AI服務(wù)的合規(guī)路徑。
3. 技術(shù)濫用風(fēng)險與社會影響
GPT類模型的開放性使其面臨被用于制造虛假信息、深度偽造(deepfake)、網(wǎng)絡(luò)詐騙等非法活動的風(fēng)險。據(jù)清華大學(xué)人工智能治理研究中心2023年報告,國內(nèi)檢測平臺在半年內(nèi)識別出超過23萬條疑似AI生成的虛假新聞,其中涉及金融投資、公共事件、名人言論等內(nèi)容占比達(dá)67%。此外,大模型訓(xùn)練過程中可能涉及未經(jīng)授權(quán)的版權(quán)數(shù)據(jù)使用問題。例如,多家國際出版商已對OpenAI提起訴訟,指控其未經(jīng)許可使用受版權(quán)保護的書籍進(jìn)行模型訓(xùn)練。在中國,部分企業(yè)因未充分告知用戶數(shù)據(jù)用途而被監(jiān)管部門約談。這些案例反映出技術(shù)進(jìn)步與法律滯后之間的張力,也凸顯出臺更細(xì)化監(jiān)管規(guī)則的緊迫性。
4. 政策演進(jìn)趨勢與未來展望
隨著生成式AI技術(shù)滲透至社會治理各層面,政策制定正從“事后應(yīng)對”轉(zhuǎn)向“事前預(yù)防”。2024年初,中國信通院牽頭編制《生成式人工智能技術(shù)倫理指南》,提出透明性、可解釋性、公平性等六大原則。工信部亦表示將推動建立大模型備案制與分級分類管理制度。參考?xì)W盟經(jīng)驗,未來可能對面向公眾的生成式AI服務(wù)實施強制性內(nèi)容水印機制,確保AI生成文本可追溯。同時,跨部門協(xié)同監(jiān)管機制正在形成,網(wǎng)信、工信、市場監(jiān)管、公安等部門將共享風(fēng)險預(yù)警信息。技術(shù)企業(yè)也在主動配合監(jiān)管,如百度承諾文心一言輸出內(nèi)容添加“AI生成”標(biāo)識,阿里云上線內(nèi)容過濾API接口。可以預(yù)見,監(jiān)管不會抑制技術(shù)創(chuàng)新,而是通過制度設(shè)計引導(dǎo)其健康有序發(fā)展。