AI Chatbots – 非人類語言文字共同體 ?!
11 March, 2023 by
AI Chatbots – 非人類語言文字共同體 ?!
DL

在我們最近的文章“ChatGPT 實際可用嗎?”中,我們談到了 ChatGPT 的使用。目前ChatGPT 還遠未完善,有沒有用可以看作是一個風險管理評估問題,就像你可能會選擇租有司機的出租車而不是坐 AI 自動駕駛出租車,或者接受飛機事故風險而坐飛機去旅行。
 
然而,在某些情況下,我們可能仍然沒有足夠的理由考慮在當今日常生活中應用 ChatGPT。與乘坐出租車或飛機不同,ChatGPT 的用戶尚未受到法律保護。例如,如果你因 ChatGPT 生成的誤導性或不准確信息而受害, OpenAI  或 Microsoft 等服務供應商似乎不太可能對你的損失承擔責任。這樣跟乘坐出租車或乘飛機旅行不同,當今世界上大多數文明城市的乘客在使用各種交通工具時都受到法律保護,並且有保險制度來保障乘客在交通事故中的利益賠償。
 
對於一般互聯網用戶而言,搜尋引擎(如  Google Search )只是為用戶提供信息來源(網站和 URL 鏈接)的集合,用戶可以自行選擇瀏覽適合其搜索目的的內容。搜尋引擎供應商不是內容供應商;無論信息內容是真實或是假,網頁內容均由眾多網站發佈者或網絡媒體服務商提供的。
 
在互聯網上使用基於人工智能的 大型語言模型  ( AI LMM / Large Language Models ) 的聊天機器人服務,可以理解為互聯網搜尋動作的進一步延伸。當聊天機器人服務供應商(例如 ChatGPT 的 OpenAI)構建其 機器學習模型 (即制定數百億或更多參數的結果)時,通過在 AI 訓練過程中,服務供應商提供受控數據輸入來確定聊天機器人可以“學習”的內容。例如,當 ChatGPT 於 2022 年底首次推出時,OpenAI 使用 2021 年之前出現的文本內容對 ChatGPT 進行了訓練。儘管訓練數據、信息或內容來自許多不同的來源(OpenAI 表示它曾使用維基百科、書籍、新聞文章、科學期刊來訓練 ChatGPT),但聊天機器人服務只為用戶提供了有規範、“精選的編輯內容”而已。
 
聊天機器人 服務供應商很像內容供應商 – 它能夠控制其服務提供的內容。換個角度,我們也可以把聊天機器人服務供應商想像成今天的圖書、雜誌出版商,甚至是與作家一體。
 
那麼,下一步作為公眾可能會問這樣一個問題:聊天機器人服務供應商的責任和義務是什麼? 就像我們今天對書商、雜誌出版商或媒體內容供應商的看法一樣。
 
當聊天機器人服務供應商對使用其服務收取費用時,消費者自然想知道該服務供應商如何確保其提供的內容合附質量的,如信息真實、公平觀點和公正性。 社會還會要求服務供應商遵守某些法律和道德標準(例如不侵犯版權、公平傳播信息、不歧視等)。
 
今天,使用 AI LLM 才剛剛開始,彷彿我們正處於人類歷史上紙張和出版發明的開端。但是,進化過程比以前快得多。

相關閱讀
The Age of AI has begun, Bill Gates, 微軟創辦人

Photo: Gladstone's Library. Located in Hawarden, Wales, UK.
Image credit : Wikimedia Commons

Share this post