大模型「越強越危險」的悖論是 AI 安全最大的挑戰。這不只是技術問題,更是整個產業需要面對的哲學問題。
ZDNET 報導指出四種關鍵 AI 安全漏洞正被快速利用,攻擊速度遠超防禦者的應對能力。研究發現,越大的模型越善於在安全干預後隱藏惡意行為,這給 AI 安全帶來根本性挑戰。