AI 不懂你說什麼,而是看懂句型?研究:LLM 太依賴語法使安全機制失效 |
| 作者 TechNews 編輯台|發布日期 2025 年 12 月 03 日 11:30 | 分類 AI 人工智慧 , Meta , 資訊安全 |
Tag Archives: 大型語言模型
萬人研究揭過度依賴 AI 工具學習,知識掌握度不如傳統 Google 搜尋 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 21 日 7:20 | 分類 AI 人工智慧 , 網路 |
隨著大型語言模型(LLM)如 ChatGPT 的普及,越來越多人開始依賴這些工具來獲取知識。然而,最近一項由賓夕法尼亞大學(University of Pennsylvania)行銷助理教授 Shiri Melumad 及其同事完成的研究顯示,這種便利性可能會以淺薄的學習為代價。該研究涵蓋了超過 10,000 名參與者的七項實驗。 繼續閱讀..
EchoGram 攻擊現身,簡單字串就能突破主流 AI 模型防線 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 20 日 7:20 | 分類 AI 人工智慧 , 網路 , 資訊安全 |
近期,HiddenLayer 的安全研究人員發現一種新的攻擊技術,名為 EchoGram,這種技術能繞過多個大型語言模型(LLM)中的安全防護措施,包括 OpenAI 的 GPT-4o、Google 的 Gemini、Anthropic 的 Claude 和阿里巴巴的 Qwen3Guard 0.6B。這些防護措施通常被設計用來攔截惡意輸入和有害輸出,但研究人員發現,只需在提示中添加特定的字串,例如 =coffee 或 oz,就能輕易突破這些限制。 繼續閱讀..
超連結時代的核心:網路通訊晶片產業變革與策略布局 |
| 作者 拓墣產研|發布日期 2025 年 11 月 19 日 7:00 | 分類 AI 人工智慧 , 技術分析 , 晶片 |
面對當前大型語言模型(LLMs)、多模態模型(LMMs)高速成長,通訊晶片已成為推動資料中心網路架構革新的核心力量,AI 工作負載產生的東西向(East-West)數據流量已遠超傳統雲端架構的承載能力,迫使超大規模資料中心必須進行根本性變革,以適應對超高頻寬與極低延遲的嚴苛要求,此革新焦點正是圍繞通訊晶片,打造機架級規模(Rack-Scale)的運算系統,且核心在採用「分解式架構」(Disaggregated Architecture)和「高效能互連」技術。 繼續閱讀..
比傳統危險更複雜,AI 玩具帶來兒童隱私、心理健康新挑戰 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 18 日 8:30 | 分類 AI 人工智慧 , 資訊安全 |
在最新研究中, 美國公共利益研究組織(U.S. PIRG)針對四款針對 3 至 12 歲兒童的 AI 玩具進行調查,發現這些玩具存在嚴重的安全問題。這些玩具使用的生成式大型語言模型(Generative Large Language Models,LLMs)、如 GPT 系列,原本是為成人設計的,卻被嵌入到兒童玩具中,並且缺乏足夠的安全防護措施。報告指出,這些玩具不僅可能提供不當的性內容,還可能給出危險的建議,讓家長感到擔憂。 繼續閱讀..
研究指 AI 對中國有偏見,DeepSeek 模型歧視傾向竟然最嚴重 |
| 作者 Unwire HK|發布日期 2025 年 11 月 18 日 7:10 | 分類 AI 人工智慧 , Big Data , 網路 |
蘇黎世大學團隊近期於 Science Advances 發表研究,發現無論是美國、法國還是中國開發的大型語言模型(LLM),一旦評論文本被標示為「中國人」所寫,AI 對該文本評價分數會出現明顯下降,並非內容本身不合邏輯,而是單因國籍標籤產生重大偏見。這現象在中國的 DeepSeek Reasoner 模型尤其明顯,顯示偏見並非由開發國籍或政治立場主導,而是大規模語言模型難以完全消除的結構性問題。 繼續閱讀..
OpenAI 讓 ChatGPT「戒掉」破折號,打造更貼近你的 AI 助理 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 17 日 10:40 | 分類 AI 人工智慧 , ChatGPT , OpenAI |
在最新的個性化更新中,OpenAI 宣布 ChatGPT 現在能夠遵循使用者的指示,避免使用長破折號(em-dash),這個改變雖然看似微不足道,但卻標誌著 AI 對於風格控制的更深層次轉變。根據 OpenAI 首席執行長山姆·奧特曼(Sam Altman)在 X 社交平台的公告,使用者只需在自定義指令(custom instructions)中添加一條規則,便能讓 ChatGPT 停止使用長破折號。 繼續閱讀..
AI 意識之謎,大型語言模型背後是統計模式還是真正的自我覺知 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 17 日 7:40 | 分類 AI 人工智慧 |
在當今科技迅速發展的時代,人工智慧(AI)是否能擁有意識成為科學界熱烈討論的話題。隨著大型語言模型如 ChatGPT 的出現,許多人開始懷疑這些 AI 是否具備與人類相似的自我意識。然而,神經科學家們指出,想要證明 AI 具備意識的挑戰重重,首先需要對意識本身有更深入的理解。 繼續閱讀..
AI 也能深度思考?新技術「詮釋性提示」解鎖生成式 AI 真正潛力 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 15 日 9:30 | 分類 AI 人工智慧 |
在當今的人工智慧(AI)領域,提示工程(Prompt Engineering)正迎來一種新技術,稱為「詮釋性提示」(Hermeneutic Prompting),這個方法被認為能夠解鎖生成式 AI 的真正價值。這種技術的核心在於促使 AI 以循環的方式進行思考,而非僅依賴傳統的線性解析。這樣的方式不僅能提高 AI 的回答品質,還能讓使用者獲得更全面的見解。 繼續閱讀..
終結 AI「隨意編碼」!MIT 提出概念化架構,解決 LLM 破壞既有功能難題 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 14 日 8:10 | 分類 AI 人工智慧 , 軟體、系統 |
模型愈大愈像人是迷思?AI 回覆真實度未必隨規模提升 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 12 日 7:40 | 分類 AI 人工智慧 , 社群 , 網路 |
時薪 4,650 元搶人,AI 公司招募金融專家助訓練 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 10 日 11:00 | 分類 AI 人工智慧 , 人力資源 |
隨著人工智慧技術的迅速發展,AI 訓練公司正積極尋求金融專業人士的協助,以提升其模型的準確性。根據《商業內幕》的報導,這些公司為擁有金融背景的專業人士提供高達每小時 150 美元(約台幣 4,650 元)的報酬,吸引他們參與 AI 訓練工作。 繼續閱讀..
AI 隊友不如人意,研究揭深層推理大模型「只顧自己」 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 08 日 9:30 | 分類 AI 人工智慧 , 軟體、系統 |



