這是個合理的問題,但有幾個重要原因說明為什麼這還不可行:
**安全關鍵系統的要求**
- 空中交通管制涉及生命安全,需要接近100%的可靠性。AI模型即使達到99.9%的準確率,在處理數百萬架次飛行時仍會導致嚴重事故。
**實時決策的複雜性**
- 管制員需要處理突發狀況(引擎故障、天氣變化、醫療緊急情況)、做出創意性判斷,並在不確定情況下快速決策。這超出了當前AI的能力範圍。
**責任問題**
- 當出錯時,我們需要問責。AI決策的不透明性("黑盒"問題)使得確定責任變得困難。相比之下,人類管制員承擔明確的法律責任。
**可解釋性**
- 管制員可以解釋他們為什麼做出某個決定。AI難以做到這一點,這在事故調查中至關重要。
**監管與驗證**
- 認證AI系統的安全性比認證人類培訓更困難。監管機構缺乏充分的框架。
**現實中的混合方案**
- AI正用於輔助工具(預測、負荷管理),但人類仍保持決策控制権。這可能是可預見未來的最佳平衡。
總而言之,這不是技術能力的問題,而是安全、責任和可靠性的問題。
查看原文