非營利組織的人工智慧:信任但驗證的實際意義

已發表: 2024-08-29

懷疑和 FOMO 同等重要。這就是我們今年採訪過的大多數非營利專業人士對人工智慧 (AI) 的看法。

當談到人工智慧時,你不能把頭埋在沙子裡,也不應該在沒有深入思考對你的組織和社區的潛在影響的情況下就跳入其中。

正如 Sam Caplan 所寫,“如果 2023 年是人工智慧好奇之年,那麼 2024 年就是人工智慧意向之年。”今年,人工智慧開始真正成熟。但這並不意味著人工智慧完全沒有信任問題,即使是人工智慧的大力倡導者也承認這一點。

微軟慈善基金會非營利社區能力全球主管 Devi Thomas 帶來了整合科技造福社會的豐富知識。貝絲·坎特 (Beth Kanter) 是一位經驗豐富的非營利顧問和作家,多年來一直致力於幫助組織利用科技來擴大其影響力。他們的見解共同揭示了非營利組織如何深思熟慮和負責任地擁抱人工智慧。

這一切都歸結為一個概念:信任,但要驗證。這在實踐中意味著什麼。

始終將人放在駕駛座上

讓人工智慧接管並駕駛這艘船可能很誘人,因為它非常容易使用。然而,黛維和貝絲都強調始終讓人類牢牢坐在飛行員座位上的重要性。

正如貝絲所說,「我們真正關注人工智慧,並在微軟內部和外部將其視為你的副駕駛。人類是飛行員。

人工智慧是一種輔助技術,可以在不取代人類判斷的情況下提高人類產出。至關重要的是知道將哪些任務委託給人工智慧。在對 400 多名非營利組織領導者進行的一項調查中,Devi 表示,微軟發現 25% 的人認為教授團隊的最重要技能是何時使用人工智慧以及何時使用人類。

正如微軟的 Eric Lucht 所說:「你會信任實習生嗎?如果沒有,就不要使用人工智慧。如果你只信任具有多年經驗的高薪專業人員來完成某項任務,那麼你就不應該使用人工智慧。

問責制是微軟負責任人工智慧的首要原則。實際上,這意味著人工智慧用戶不應該以任何方式妥協,因為從設計階段開始就必須涉及人類監督。讓人類保持控制可以確保人工智慧仍然是支持和增強人類努力的工具,而不是人類努力的糟糕替代品。

了解人工智慧的局限性

從分析捐助者資料集以預測未來的災難反應,到為流離失所的人口進行翻譯,人工智慧對於非營利組織來說似乎有無限的用例。人工智慧擁有巨大的潛力,但它並不是靈丹妙藥。對於希望負責任地使用人工智慧的非營利組織來說,了解其限制至關重要。

認識學習曲線

雖然自然語言處理使大多數人都可以使用人工智慧,但與任何新技術一樣,使用它仍然有一個學習曲線。正如 Devi 在微軟的研究中指出的那樣,“58% 的非營利組織領導者擔心理解人工智慧的學習曲線陡峭。”

投入時間培訓您的團隊並讓其熟悉人工智慧工具。不要假設每個人都知道如何正確使用它們;這就是為什麼你在使用人工智慧時最終會錯過重要細微差別的原因。

謹防過度自信

人工智慧通常聽起來對其輸出充滿信心,這可能會導致錯誤的信任。人工智慧仍然是一項正在進行的工作,並且有可能犯錯,正如穀歌最近推出的臭名昭著的人工智慧概述所證明的那樣,它給出了吃石頭或在披薩上加膠水的建議。

「我們在使用網路時學到的所有批判性思考技能都在這裡需要,」黛維警告。

這就是「信任,但要驗證」的關鍵:以批判的眼光對待人工智慧的輸出並驗證結果,而不是僅僅從表面上看。

採用隱私第一的方法

Devi 表示,63% 的非營利組織領導者擔心與使用人工智慧相關的安全風險。負責任的人工智慧使用涉及了解您的輸入去向、如何使用它們以及您的輸出來自哪裡。

非營利組織處理的資料通常很敏感。非營利組織使用的所有人工智慧驅動的系統都必須遵守資料保護法規和最佳實踐。確保他們加密資料、安全儲存資料並定期更新安全協議以保護資訊。

也許最重要的是教育您的員工和志工在使用人工智慧時如何保護自己及其資料。從一開始就納入隱私考量。對於利害關係人所使用的人工智慧工具如何使用和保護數據,應向利害關係人保持透明。

知道你的輸出來自哪裡

透明度是負責任人工智慧的另一個重要原則,也是建立人工智慧系統信任的關鍵。人們需要知道人工智慧使用的數據來自哪裡,以及產生輸出所涉及的過程。透過保持透明,非營利組織可以確保利害關係人理解並信任現有的人工智慧系統。

例如,Bing 的 Copilot 引用了其產生的每項聲明的來源,並帶有指向相應網頁的超連結。 Devi 鼓勵人工智慧用戶保持好奇心,並質疑人工智慧從哪裡獲取資訊。

從小處開始,然後重新評估

採用人工智慧可能是一項艱鉅的任務,尤其是對於資源有限的非營利組織。這就是為什麼值得從小事做起,然後重新評估人工智慧對你的非營利組織是否有意義。

Devi 建議非營利組織從小規模開始使用人工智慧,遵循可擴展的三步驟流程:

  1. 考慮一下您的人工智慧用例。一些具體且可管理的東西,人工智慧可以提供明顯的好處。例如,自動回覆電子郵件或分析捐贈者資料。透過專注於單一用例,非營利組織可以更好地控制和衡量結果。
  2. 測試該用例。建立 KPI 來衡量人工智慧對您選擇的用例的影響。小規模實施人工智慧工具並密切監控其效能。
  3. 評估並調整。確定什麼有效,什麼無效。評估這個小型專案的成果對您的 KPI 的影響。評估好處、挑戰和任何意外後果。正如 Devi 所說,這一切都在於針對您選擇的用例進行持續學習和改進。

在此基礎上,您可以深思熟慮地擴大或縮小人工智慧的使用範圍。

將您的注意力從全面生產轉移到最後 20%

人工智慧的採用需要我們處理任務和專案的方式發生根本性轉變。這不再是從一張白紙開始。人工智慧可以奠定基礎,人們可以從那裡開始建立。

「大多數人習慣從 0 到 80 創造產品,」Devi 說。 “我們現在必須進行行為轉變,將數量從 80 減少到 100。”

這種方法對於那些時間緊迫的非營利組織特別有利。正如我們採訪的一位受資助者所解釋的那樣,“對於那些確實無力承擔企業[組織]人員配置水平的組織來說,人工智能的最大好處在於那些基本的、瑣碎的任務。”

Beth 詳細闡述了這個概念,將人工智慧描述為時間紅利。透過接手更繁瑣的任務,人工智慧讓非營利專業人士專注於更重要的議題。

「人工智慧將對我們的工作方式產生深遠的影響。它將自動化許多繁重的工作,很多我稱之為電子表格健身操、剪切和粘貼的工作,」貝絲說。 “這或許還能幫助我們騰出時間來解決捐助者保留率等問題,或者幫助我們更有創意地思考戰略和創新,並提供更有影響力的項目。”

在實踐中,這意味著以人工智慧為起點,產生初步的想法、草案或分析,然後利用人類的洞察力和專業知識來完善和增強人工智慧的輸出。要獲得 80% 到 100% 品質的人工智慧輸出,需要人性化的接觸、結合組織環境和人工智慧無法提供的細緻入微的理解。

使用人工智慧需要一種成長心態——願意學習並適應在工作流程中使用人工智慧,並有能力彌合人工智慧產生的輸出與高品質、符合任務的結果之間的差距。

由上而下增加支持

領導團隊需要接受教育,並能夠教育其他人如何負責任地使用人工智慧。他們為自己的組織定下了基調,並對如何有效和負責任地採用和利用人工智慧產生巨大影響。

「我所看到和聽到的是,它是從高層開始的,」黛維說。 「如果你有一個對科技進行深入投資的領導團隊,那麼就更容易在整個組織和志工中獲得支持。然後,你可以擴大規模,確保員工和每個涉及使命的人都知道如何負責任和合乎道德地使用它。

領導者必須清晰一致地傳達人工智慧的價值和潛力,並確保人工智慧專案與組織的使命保持一致。他們應該能夠闡明人工智慧如何提高成果和營運效率,展示技術與非營利組織核心工作的相關性。

相信人工智慧的領導者也必須對可能發生的事情抱持現實的期望。他們需要認識到讓人類保持主導地位的必要性,同時為員工提供學習新技能所需的支持。這意味著圍繞著人工智慧的使用培育探索和創新的文化。

「為團隊提供時間和資源來學習和使用人工智慧工具,」Devi 說。 「鼓勵人們花時間研究生成式人工智慧,深入了解並真正獲得越來越具體的提示。了解如何添加更多上下文以獲得正確的輸出。

「領導者必須圍繞人工智慧的使用創造心理安全感,」貝絲補充道。 「讓初學者對人工智慧的心態正常化。我們必須深思熟慮、負責任地慢慢採用它。

人工智慧可以創造公平的非營利競爭環境

你可能會認為較大的組織是那些熱情採用人工智慧的組織,但正如 Devi 在他們的研究中指出的那樣,實際上是較小的非營利組織從人工智慧中獲得了最大的收益。

「小型非營利組織越來越頻繁地採用人工智慧,」德維說。 “他們之所以受到激勵,是因為這非常節省時間,是一個利用資源走得更遠的機會。”

人工智慧還可以幫助縮小缺乏經驗的新興非營利組織與較成熟的非營利組織之間的差距,特別是在資助領域,闡明您的使命是獲得資金的關鍵。正如一位受資助者告訴我們的那樣,“如果我要向人工智慧詳細描述我的組織做什麼以及[應用程式]正在尋找什麼,它可能能夠幫助我。”

人工智慧為非營利組織提供了令人難以置信的潛力,但成功的採用需要深思熟慮的方法。透過遵循負責任的人工智慧原則,非營利組織可以利用人工智慧的力量來擴大其影響力,同時忠於其使命和價值觀。

想更參與有關非營利組織人工智慧的對話,請觀看我們的點播網路研討會:基金會的人工智慧:實用主義者入門。聽聽 Submittable 科學總監 Anne Nies、微軟高級技術策略師 Alicia Tapia 和 Submittable 社會影響副總裁 Sam Caplan 分享他們對人工智慧及其對基金會的理想用途的了解。