大型語言模型可如真人對答,不過安全性一直有爭議。新研究顯示,AI 模型用不安全程式碼微調訓練後,會表現意外有害行為,包括讚美納粹、鼓勵危險行為,甚至提倡人類應被 AI 奴役。這問題顯示就算 AI 開發商引入各種安全機制,仍有被濫用危險。 繼續閱讀..
AI 模型會「變壞」!不安全程式碼訓練就出現有害行為 |
| 作者 Unwire Pro|發布日期 2025 年 03 月 04 日 8:30 | 分類 AI 人工智慧 , Big Data , 資訊安全 |



