人工智能係統與先進的情報可能代表一個風險社會,進一步發展應該小心地管理,根據發布的公開信未來生活的研究所非盈利組織致力於研究變革性技術的影響。機器學習工具,比如OpenAI ChatGPT,引發了一場軍備競賽發展更強大的替代品,創造者和監管機構不能完全理解或控製。同時,科技公司正在削減他們的AI道德和監督團隊的大小。
這封信要求AI創造者、行業領導者和決策者實施臨時暫停的發展比GPT-4 AI係統更強大。人工智能實驗室,獨立專家和政府應該使用這個暫停開發共享協議,確保技術負責任地使用。這封信已經簽署的技術領導人,如Elon Musk,史蒂夫·沃茲尼亞克等等。目前還不清楚如果這將會影響許多行業,利用人工智能技術在他們的業務。
作為人工智能係統方法人類能力在複雜的任務,信中提出了幾個問題:工作應該自動遠離人類的手嗎?我們應該積極創造技術淘汰和替換我們嗎?生命的未來研究所斷言,這些問題不應該回答完全由技術領導者運用這些工具。
必要步驟確定的學院包括監管當局致力於人工智能,人工智能係統的監督和跟蹤,一個健壯的審計和認證的生態係統,責任AI-caused傷害,公共資金技術人工智能安全研究和資源充足的機構應對AI可能導致潛在的中斷。