水能載舟亦能覆舟,任何工具都有其兩面性,不加以管制,總會有人用來做壞事。OpenAI日前就警告稱,即將推出的模型在製造生物武器時將面臨更高的風險,公司和整個社會都必須為未來做好準備。

OpenAI 高層表示該公司預計即將推出的模型將在公司的防範框架下達到高風險水準。因此OpenAI正在加強對此類模型的測試,並採取新的預防措施,以防止它們被用來協助製造生物武器。
OpenAI 安全系統負責人Johannes Heidecke表示:「我們預計我們的o3的一些後繼者將達到這一水平。」
OpenAI認為,如果不採取緩解措施,很快或將出現沒有技術背景的普通人在AI的幫助下用簡單的設置製造生物武器威脅社會安全。
Heidecke說:「我們還沒有進入一個完全未知、前所未有的生物威脅時代。我們更擔心的是,專家們已經非常熟悉的生物威脅會再次出現。」
其中一個挑戰是,人工智慧的一些能力雖然可以幫助發現新的醫學突破,但也可能被用來造成傷害。但是,海德克承認OpenAI 和其他公司需要能夠高度準確地檢測和防止有害使用的系統。
他說:「這並不是說99% 甚至十萬分之一的表現就足夠了。我們基本上需要近乎完美,人工監控和執法系統需要能夠快速識別任何逃避自動檢測的有害用途,然後採取必要的行動防止危害發生。」
OpenAI 並不是唯一一家警告模型將達到潛在有害能力新水平的公司。
上個月發布Claude 4時,Anthropic 表示,由於該模型可能助長生物和核威脅的傳播,因此正在啟動新的預防措施。各公司也紛紛發出警告,現在是時候開始為人工智慧模型能夠在廣泛任務中達到或超越人類能力的世界做好準備了。
OpenAI 表示將於下個月召開一場活動,召集某些非營利組織和政府研究人員討論未來的機會和風險。 OpenAI 政策負責人Chris Lehane表示,OpenAI 也希望擴大與美國國家實驗室以及政府的合作。
Lehane表示:「我們將探索一些額外的工作,以便能夠真正有效地利用這項技術來打擊那些試圖濫用這項技術的人。」他補充道,在社會安全的角度,「至少在我看來,在世界各地建立人工智慧、真正由美國主導的重要性」。








