AI毒害個案罪在人惡 屈思宏:教會三招深度反思

2023 八月 22日, 星期二 10:18

(示意圖:pexels@ThisIsEngineering)
(示意圖:pexels@ThisIsEngineering)

人工智能的力量是否操控人類命運?漢語網絡神學院神學系講師屈思宏博士列出AI在教育、工作等製造社會不公平現象,甚或被恐怖主義操控,歸因人的惡驅動,呼籲教會禱告放眼世正發生甚麼事,跟隨聖靈非AI。

AI製造教育、工作不均 被恐怖主義操控

屈思宏指出人工智能發展過速後果堪虞,一款叫做PoisonGPT有毒的人工智能釋放假的訊息,手術式修改少少掩人耳無,讓不法分子達到目的。另一款虛假人工智能WormGPT,自動創造引人注目的虛假電子郵件,針對收件人過性而設置。今年7月一款名為FraudGPT面世進入網站進行不法行為。

屈思宏認為,生成式人工智能不停發展、公司之間互相競爭,引致眾多人工智能出現漏洞,令到不法份子進入修改發放錯誤的訊息,達到不法行為非常危險。

人工智能教父Geoffrey Hinton發出警告:「人類正進入一個充滿不確定的時代,不論樂觀或悲觀都是愚蠢的,我們只是不知道會發生甚麼。」DeepMind也發出預警,隨著人工智能的進步,通過系統和顯示生出難以預測的功能,包括連開發人員都預計不到將會提供甚麼毒害的功能,所以未來的系統可能顯示出更危險的緊急能力,例如進行攻擊性網絡操作,通過對話操縱人員或提供有關實施恐怖主義行為可操作指令的能力。

Like Us on Facebook

人工智能為現代社會也帶來不平等的計算,美國教育局使用AI評分系統評估教師質素,以學生成績評估教師質素,但忽略了導致成績的其他因素,例如學生家庭貧窮放學後要出外工作等,結果當地教育局辭退了一位被評估質素差的老師。

另一個真實個案,用人工智能給應徵者的性格評分,問題如:「我有時對自己的思想和感受感到混亂」或「我嘗試去做之前不確定是否喜歡去做」,問題令人難以捉摸,公司用這方法走法律罅篩選不想要的人,因為當地法律不容許問及應徵者精神健康的問題,雇主用人工智能問卷然後用計算法來篩選應徵者。

AI無罪 罪在人惡

因此人工智能並不一定客觀,運算視乎背後的工程師怎樣運算,輸入甚麼的資料,製造想要的答案。

屈思宏指出,問題不在AI,是人怎樣運用 AI,這引發人去問:究竟人工智能是否真的能夠解決貧富懸殊問題?研究發現人工智能加速貧富懸殊、增加失業風險,財富與權力集中在一部分人手上。人工智能取代部分人的職業,擁有財富和權力的人可以篩選甚麼人來培訓補充流失的位置,原本教育程度低被取代的工人,難以再接受培訓增加失業風險。

在澳洲,甚至有人利用人工智能模仿對方的聲音來瞞稅,歸根究柢是人的問題,人有善的一面但惡同時存在。

教會回應:應對、接受、反省

人工智能衝擊,教會回應行動有三:應對、接受、反省。屈思宏認為三者沒有先後次序。

教會應對,首先是禱告,謹記著教會不是被人工智能牽著走,是被聖靈牽著走,在禱告中想到怎樣正當運用,不要人有我有一窩蜂的心態,要放眼世界,究竟現在發生甚麼事情,這樣來禱告。

預備社關,人工智能大潮流將會出現很多犧牲者,教會站在受壓者的一邊實際給予援助,幫助低下階層人士融入社會工作,迪士尼近日宣佈全面人工智能化,員工被裁沒錢再培訓,教會怎樣輔助社群體,這就是見證。

教會接受,運用各方面智慧和專長來配合,鼓勵Z世代、Alpha世代,從簡單做起,例如用人工智能寫信人手編改、通訊、平面設計、Brainstorming、幫教會定主題、釐清內容寫文章。

教會反省,屈思宏呼籲教會深度反思,教會要站立得穩不要隨波逐流,並且在神學裡面思考何謂真理、何為人。

該次講座由漢語網絡神學院校友會主辦。日期:8月11日網上直播;主題:與人工智能對決;講員:屈思宏博士。

精選