加拿大本月發生大規模槍擊案,聊天機器人 ChatGPT 開發商 OpenAI 雖在去年封鎖槍手帳號,卻未向警方通報。加拿大官員今天表示,將就此召見 OpenAI 高層,討論 OpenAI 的安全機制。 繼續閱讀..
槍手 ChatGPT 遭封鎖卻未通報,加拿大召見 OpenAI 高層 |
| 作者 中央社|發布日期 2026 年 02 月 24 日 17:20 | 分類 AI 人工智慧 , ChatGPT , OpenAI |
別被「亂碼」騙了,ChatGPT、Claude、Gemini 生成的密碼其實超好破解 |
| 作者 TechNews 編輯台|發布日期 2026 年 02 月 20 日 10:40 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
「你可以修補漏洞,但修不了大腦」,AI 時代顛覆傳統網路安全思維 |
| 作者 TechNews 編輯台|發布日期 2025 年 12 月 22 日 15:45 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
隨著人工智慧(AI)技術的迅速發展,企業面臨的安全挑戰也日益增加。根據 AI 安全研究員桑德·舒霍夫(Sander Schulhoff)的說法,傳統的網路安全團隊並未做好應對 AI 系統失效的準備。在最近播出的《Lenny’s Podcast》中,舒霍夫指出,許多組織缺乏理解和修復 AI 安全風險所需的人才。 繼續閱讀..
小心「邪惡分身」與中間人攻擊,免費 Wi-Fi 可能讓你失去手機控制權 |
| 作者 TechNews 編輯台|發布日期 2025 年 12 月 18 日 11:20 | 分類 網路 , 網通設備 , 資訊安全 | edit |
隨著智慧手機的普及,網路安全問題日益受到關注。法國網路安全機構 CERT-FR 最近發布一份名為《2025 年以來的威脅景觀》的報告,警告現代智慧型手機存在的安全漏洞,特別是在 Wi-Fi 和行動網路方面的潛在風險。報告指出,許多人認為只要遵循一些基本的安全規則,就能避免大多數網路安全威脅,但實際上,攻擊者仍能透過各種手段獲取用戶的手機資料。 繼續閱讀..
AI 不只搶工作也創造工作,盤點 4 大新興職位與必備技能 |
| 作者 TechNews 編輯台|發布日期 2025 年 12 月 15 日 10:50 | 分類 AI 人工智慧 , 人力資源 , 職場 | edit |
隨著人工智慧(AI)技術的迅速發展,未來的工作市場將出現許多新職位,這些職位在幾年前尚不存在。根據最新的報導和行業分析,以下是四個可能出現的新職位,以及它們的需求原因、核心任務和所需技能。 繼續閱讀..
AI 駭客自我演化速度,讓傳統防禦系統追不上 |
| 作者 TechNews 編輯台|發布日期 2025 年 12 月 12 日 10:10 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
在最近的一項實驗中,史丹佛大學的研究顯示,人工智慧駭客工具的能力已經達到一個危險的水平,甚至開始超越某些人類駭客。這個發現引發了對於網路安全的關注,因為 AI 駭客不僅能夠自動生成惡意代碼,還能夠進行即時的自我演變,這使得傳統的網路防禦系統面臨前所未有的挑戰。 繼續閱讀..
GSMA 新報告警告,零碎的網路安全監管推高成本及風險 |
| 作者 PR Newswire|發布日期 2025 年 11 月 29 日 14:00 | 分類 市場動態 , 網路 , 資訊安全 | edit |
GSMA 今日發布一項重要的獨立新研究《網路安全監管對行動網路營運商的影響》,報告顯示行動網路營運商每年在核心網路安全活動上的支出介乎 150 億至 190 億美元,預計到 2030 年將升至 400 億至 420 億美元。
別再只靠防火牆,專家呼籲:整合 AI 是應對新型態攻擊的唯一解方 |
| 作者 TechNews 編輯台|發布日期 2025 年 10 月 05 日 13:30 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
在當今數位時代,隨著人工智慧(AI)的迅速發展,傳統的防火牆技術因依賴靜態規則而顯得過時,難以對抗快速演變的攻擊手法。根據最新報告,AI 的應用正在徹底改變網路安全的格局,尤其是在面對快速增長的網路攻擊和人類欺騙行為時,傳統的防禦措施無法有效應對。 繼續閱讀..
CVE 計畫面臨資金耗盡危機,美國政府未更新合約 |
| 作者 Unwire Pro|發布日期 2025 年 04 月 18 日 7:40 | 分類 網路 , 資訊安全 , 金融政策 | edit |
川普當選總統後,不斷削減各種政府開支,尤其是美國參與的全球計畫受影響最嚴重。最近就連常見漏洞披露(Common Vulnerabilities and Exposures,CVE)計畫也可能面臨資金耗盡危機。 繼續閱讀..
