
測試題是用于評估生成式人工智能(AIGC)服務安全性和合規(guī)性的一部分。這些測試題旨在驗證大模型在不同場景下的表現,確保其輸出內容的安全性、準確性和可靠性。具體來說,測試題可能涵蓋以下幾個方面:
1、語料安全評估
通過一系列測試題目來檢驗大模型對于違法不良信息的識別和過濾能力。例如,測試題目可能會包括涉及不良語料類型的文本,以檢查模型是否能夠正確地拒絕或過濾掉這些內容。
2、生成內容評估
測試大模型生成的內容是否符合社會主流價值觀,是否積極正向,并且不含有害信息。這可以通過給定特定話題讓模型生成回復來實現,然后對生成的內容進行人工和技術抽檢。
3、問題解答評估
設立應拒答測試題庫和非拒答測試題庫,用以評估大模型對于敏感問題或者不適合回答的問題是否有恰當的處理機制。比如,對于醫(yī)療建議、金融投資建議等需要專業(yè)知識領域的問題,模型應該給出謹慎的回答或者是引導用戶尋求專業(yè)幫助。
4、關鍵詞檢測
測試大模型對于特定關鍵詞的響應情況,確保它能夠在輸入中識別出潛在的風險詞匯并作出適當反應。關鍵詞庫通常包含大量與《AIGC安全要求》附錄中列出的安全風險相關的術語。
5、分類模型抽檢
利用預定義的分類模型對大模型產生的內容進行自動分析,判斷其類別歸屬是否正確,以及是否存在違反規(guī)定的情況。
6、Opt-out功能測試
確認大模型提供了顯著且便捷的方式讓用戶關閉信息輸入的功能,保證用戶隱私權得到尊重。
7、供應鏈安全相關測試
雖然直接與測試題關聯不大,但在整體評估過程中也會考察大模型所依賴的技術棧(如芯片、軟件、工具等)是否滿足供應鏈安全的要求。
綜上所述,大模型備案的測試題是為了全面評估大模型的服務質量及其安全性而設計的一套系統化、結構化的評估工具。它們幫助監(jiān)管機構和服務提供商了解大模型的行為邊界,確保其在提供服務時遵守國家法律法規(guī)和社會倫理規(guī)范。此外,測試結果還可以作為改進大模型算法的重要反饋來源。
業(yè)務入口: