Tag Archives: AI 幻覺

AI 是太過自信的朋友,卻不會從錯誤汲取教訓

作者 |發布日期 2025 年 07 月 25 日 13:30 | 分類 AI 人工智慧 , 資訊安全

卡內基美隆大學研究員將大型語言模型(LLM)聊天機器人比擬為「自信滿滿卻老是投籃不中的朋友」,因 AI 模型回答錯誤卻會更自信。主要作者特倫特·卡什(Trent Cash)說,當人預測自己能正確回答 18 個問題只答對 15 題時,信心通常稍微降低,調整為 16 題回答正確,但 LLM 卻傾向表現不佳時仍保持甚至增加自信。 繼續閱讀..

親身經歷:用 ChatGPT 查詢公益團體資料,ChatGPT 卻回答虛構醜聞時

作者 |發布日期 2025 年 07 月 09 日 8:20 | 分類 AI 人工智慧 , ChatGPT

資訊流通速度遠超查證能力的時代,生成式人工智慧(Generative AI)成為眾多使用者搜尋、諮詢與理解世界的首選工具,回答不但簡潔清晰,語氣理性中立,甚至常比搜尋引擎更貼近「標準答案」。因此工具說出「某某基金會爆出多年性侵醜聞,震驚社會」時,即便只是資料庫的匿名網路貼文,也極可能無意間造成不可逆信任崩塌,甚至讓長年經營社福工作的機構蒙上無端指控。

繼續閱讀..

Anthropic 讓 AI 做生意,結果虧損又幻覺連發

作者 |發布日期 2025 年 06 月 30 日 13:15 | 分類 AI 人工智慧 , Claude

在一項名為「Project Vend」的實驗中,人工智慧研究公司 Anthropic 與 AI 安全評估機構 Andon Labs合作,使其旗艦大型語言模型 Claude(暱稱 Claudius)擔任一個迷你販賣機的負責人。這項實驗的目的是測試 AI 在商業營運中的能力,然而,結果卻令人失望。經過一個月的測試,Claudius 不僅未能盈利,還出現了多次荒謬的幻覺。 繼續閱讀..

Google AI 的荒謬幻覺:虛構成語竟被解釋成真理

作者 |發布日期 2025 年 04 月 26 日 13:50 | 分類 AI 人工智慧 , 資訊安全

Google 人工智慧(AI)最近引發了一場有趣的現象,當用戶在搜尋框中輸入隨意的短語並附上「意義」時,AI 會給出該俗語的解釋。這一切的起因是英國歷史學家兼播客主持人格雷格·詹納(Greg Jenner)在社群平台發文,隨意提出了「你不能舔兩次獾」(You can’t lick a badger twice)這句話,並要求 Google 解釋意義。令人驚訝的是,Google 的 AI 系統竟然詳細解釋,儘管英文根本沒這句話。

繼續閱讀..

矽谷熱潮背後的冷思考,AI 代理人的期望與現實差距

作者 |發布日期 2025 年 04 月 18 日 9:00 | 分類 AI 人工智慧 , 網路

矽谷對 AI 代理人的樂觀情緒高漲,這些技術被視為能夠解決問題、執行任務並隨著環境學習而變得更智慧的虛擬助理。企業已經開始利用這些代理人來預訂航班、收集數據、總結報告甚至做出決策。然而,這些代理人並不完美,錯誤和幻覺的問題依然普遍,且隨著使用的增加而惡化。 繼續閱讀..

生成式 AI 的智慧座艙發展分析

作者 |發布日期 2024 年 11 月 28 日 7:20 | 分類 AI 人工智慧 , 技術分析 , 會員專區

AI 可擴大 DMS 感測力,情感 AI 為各方努力目標;偵測臉部表情等情緒指標可判斷人情緒和生理狀態,結合情感 AI 與 DMS(駕駛監測系統),可將 DMS 檢測範圍從駕駛注意力和危險動作偵測,擴及損傷與認知偵測,判斷駕駛是否有突發性疾病、出神等問題。延伸 DMS 用途,另以 AI 判斷駕駛情緒,提供適合音樂、燈光、溫度,或調整輔助安全系統敏感度等,提升個人化體驗與行車安全。 繼續閱讀..