OpenAI 的 ChatGPT 是 AI/ML ( Artificial Intelligence and Machine Learning )最近熱門話題。我們對 ChatGPT 在處理自然語言( Natural Language Processing )對話的能力感到驚訝。ChatGPT 能夠針對你提出的任何問題生成類似人類的對話式答案,並且這些對你提問的回答,大部分是明智和有意義,甚至具啟發性或創意。此外,即使你提出相同的問題,答案也不會完全一樣。由於 ChatGPT 可能會給出不明智、不正確、有偏見或不可接受的答案,人們還是爭論 ChatGPT 是否可用於現實世界。
我們一直以來認識的典型計算機( computer )由含邏輯程序的編程碼組成運算。只要我們每次輸入相同的內容(比如文字或數字輸入),就會得到相同的答案,而且答案不會有隨機性。
但 人工智能 技術不同。人工智能基於機器學習算法,而機器學習是追求高精度的估計,但無法達到 100% 正確。例如,面部識別 ( Facial Recognition ) AI 程序可以準確識別數以百萬張面孔,但仍然可能無法識別或錯誤識別。另一個例子是似乎不可避免的自動駕駛車禍。
此外,ChatGPT 不僅基於標準的機器學習算法,還應用了生成式人工智能技術 (Generative AI),將具有類人的“創造”能力和隨機性的算法嵌入到系統中。
那麼,在 AI 實際應用中,我們應該容忍多少錯誤?(你也可以嘗試向 ChatGPT 詢問這個問題!)
這是在特定應用情況下平衡風險、成本和收益(或效益)的典型論證問題,像你對一個人的信任程度如何。人工智能不是人類,但我們可以評估它的"智慧"能力、對我們的好處和風險。例如,在旅途上你會如何考慮僱用出租車和司機或自動駕駛汽車。
事實上,人類也很熟悉風險平衡的情境,即使是風險無限高的極端情況:航空安全。乘飛機旅行時,沒有人能倖免於飛機失事的風險。根據麻省理工學院的一項研究,2008 年至 2017 年間,每登機 790 萬名乘客中就有 1 人死亡。我們知道存在死亡風險,但仍然將航空旅行視為一種交通工具。在美國,統計數據顯示乘坐主要商業航空公司的航班比汽車安全得多。
我們可能會採取類似的方法來評估人工智能的使用,儘管它涉及更複雜的議題(例如考慮不同地區、國家、民族或社區的道德、法律、安全、文化),而 AI/ML 技術還在發展,不確定性比較大。但是我們可以應用風險管理( risk management )來採取控制措施( control measure )來降低風險( mitigate risk )。例如,當使用客服聊天機器人應用( chatbot application )時,為客戶提供投訴或申訴渠道,這樣的反饋循環處理更可以進一步提高人工智能系統的準確性和滿意度 – 實際上,人工智能系統也是一個學習機器( learning machine ).
或者對於很多學校老師和院校教授來說,最具挑戰性和急需解決的問題是如何判斷學生提交的功課是學生自己完成的,還是ChatGPT “創作”出來!又或者,在像 ChatGPT 這樣的人工智能工具出現的情況下,教育工作者應該對當前的教育理論和體制做出怎樣的改變。
Related Reading
(1) Plane Crash Statistics
(2) MIT News – Study: Commercial air travel is safer than ever
(3) OpenAI ChatGPT