非営利向け AI: 信頼するが検証するということが実質的に何を意味するか

公開: 2024-08-29

懐疑論とFOMOは同じ部分です。今年私たちが話を聞いたほとんどの非営利専門家は、人工知能 (AI) についてそう感じています。

AI に関しては、何も考えずに取り組むことはできません。また、組織やコミュニティへの潜在的な影響について深く考えずに AI に飛び込むべきではありません。

Sam Caplan 氏は、「2023 年が AI への好奇心の年だとすれば、2024 年はAI の志向性の年となる」と書いています。今年、AI は本格的に成熟し始めています。しかし、それは AI が信頼性の問題から完全に自由であることを意味するわけではなく、AI の強力な支持者もそれを認めています。

Microsoft Philanthropies の非営利コミュニティ キャパシティのグローバル責任者である Devi Thomas は、社会的利益のためのテクノロジーの統合に関する豊富な知識をもたらします。経験豊かな非営利コンサルタントであり作家であるベス・カンター氏は、組織がテクノロジーを活用してその効果を拡大できるよう長年支援してきました。彼らの洞察は、非営利団体が思慮深く責任を持って AI をどのように導入できるかを明らかにします。

それはすべて、 「信頼するが検証する」という 1 つのコンセプトに集約されます。これが実際に何を意味するかは次のとおりです。

操縦席には必ず人間を乗せる

AI は使いやすいため、AI に船を引き継いで操縦させたくなるかもしれません。しかし、デヴィもベスも、常に人間を操縦席にしっかりと座らせることの重要性を強調しています。

Beth 氏は次のように述べています。「私たちは AI を真剣に検討しており、Microsoft では社内外で AI を副操縦士と呼んでいます。人間こそがパイロットなのです。」

AI は支援テクノロジーであり、人間の判断に代わることなく人間の生産性を向上させます。重要なのは、どのタスクを AI に委任するかを知ることです。デヴィ氏は、400人を超える非営利団体のリーダーを対象とした調査で、マイクロソフトの25%が、チームに教える最も重要なスキルは、いつAIを使用し、いつ人間を使用するかであると考えていることがわかったと述べた。

Microsoft の Eric Lucht 氏は次のように述べています。そうでない場合は、AI を使用しないでください。」ある仕事に関して長年の経験を持つ高給取りの専門家だけを信頼するのであれば、その仕事に AI を使用すべきではありません。

説明責任は、責任ある AI に関するマイクロソフトの第一原則です。実際には、これは、設計段階から人間の監視が必要であるという事実に関して、AI ユーザーがいかなる形でも妥協すべきではないことを意味します。人間を制御し続けることで、AI は人間の不十分な代替品ではなく、人間の努力をサポートおよび強化するツールであり続けることが保証されます。

AI の限界を理解する

将来の災害対応を予測するためのドナーデータセットの分析から、避難民向けの翻訳まで、非営利団体向けの AI のユースケースは無限にあるように思えます。 AI は大きな可能性を秘めていますが、特効薬ではありません。 AI を責任を持って使用しようとしている非営利団体にとって、その制限を理解することは非常に重要です。

学習曲線を認識する

自然言語処理により、ほとんどの人が AI にアクセスできるようになりますが、他の新しいテクノロジと同様に、その使用には依然として学習曲線が必要です。 Devi 氏が Microsoft の調査で指摘しているように、「非営利団体のリーダーの 58% は、AI を理解するための学習曲線が急であることを懸念しています。」

トレーニングに時間を投資し、チームを AI ツールに慣れるようにしましょう。誰もがそれらの正しい使用方法を知っていると想定しないでください。そうなると、AI を使用するときに重要なニュアンスが失われることになります。

自信過剰に注意

AI はその出力に自信があるように聞こえることが多く、それが誤った信頼につながる可能性があります。 AIはまだ発展途上であり、石を食べるか、ピザに接着剤を加えるかの推奨を吐き出す悪名高いGoogleのAI概要を最近発表したことからもわかるように、間違いを犯す可能性がある。

「インターネットの使用で教えられた批判的思考スキルのすべてがここで必要とされます」とデヴィは警告します。

それが「信頼するが検証する」の核心です。AI の出力を額面通りに受け取るのではなく、批判的な目でアプローチし、結果を検証します。

プライバシー最優先のアプローチを採用する

デヴィ氏は、非営利団体のリーダーの 63% が AI の使用に伴うセキュリティ リスクを懸念していると共有しました。責任ある AI の使用には、入力がどこに行くのか、どのように使用されるのか、出力がどこから来るのかを理解することが含まれます。

非営利団体が扱うデータは機密性の高いものが多いです。非営利団体が使用するすべての AI 搭載システムは、データ保護規制とベスト プラクティスに準拠する必要があります。データを暗号化し、データを安全に保存し、情報を保護するためにセキュリティ プロトコルを定期的に更新するようにしてください。

おそらく最も重要なのは、AI を使用する際に自分自身とそのデータを保護する方法についてスタッフやボランティアを教育することです。最初からプライバシーへの配慮を組み込みます。利害関係者が使用する AI ツールによってデータがどのように使用および保護されるかについて、利害関係者に対して透明性を保ちます。

出力がどこから来ているかを知る

透明性は責任ある AI のもう 1 つの重要な原則であり、AI システムの信頼を構築するための鍵です。人々は、AI によって使用されるデータがどこから来たのか、そして出力の生成に関与するプロセスを知る必要があります。非営利団体は透明性を保つことで、利害関係者が導入されている AI システムを理解し、信頼することができます。

たとえば、Bing の Copilot は、生成された各クレームのソースを、適切な Web ページへのハイパーリンクとともに引用しています。デヴィ氏は、AI ユーザーに好奇心を持ち、AI がどこから情報を入手しているのか疑問を持つよう勧めています。

小さく始めて、その後再評価する

AI の導入は、特にリソースが限られている非営利団体にとっては困難な作業となる可能性があります。だからこそ、小規模から始めて、非営利団体にとって AI が意味があるかどうかを再評価する価値があります。

Devi 氏は、非営利団体は、スケーラブルな 3 段階のプロセスに従って、AI の導入を小規模から始めることを推奨しています。

  1. AI のユースケースについて考えてみましょう。 AI が明らかなメリットを提供する、具体的で管理しやすいもの。たとえば、電子メール応答の自動化や寄付者データの分析などです。単一のユースケースに焦点を当てることで、非営利団体は結果をより適切に管理し、測定できるようになります。
  2. そのユースケースをテストします。 KPI を確立して、選択したユースケースに対する AI の影響を測定します。 AI ツールを小規模に実装し、そのパフォーマンスを注意深く監視します。
  3. 評価して調整します。何が機能し、何が機能していないかを判断します。この小規模プロジェクトの結果が KPI に与える影響を評価します。利点、課題、および意図しない結果を評価します。 Devi 氏が言うように、選択したユースケースに対する継続的な学習と改善がすべてです。

そこから、AI の使用を慎重に拡大または縮小できます。

完全な生産から最後の 20% に焦点を移す

AI の導入には、タスクやプロジェクトへのアプローチ方法を根本的に変える必要があります。もはや白紙の状態から始めるというわけではありません。 AI が基礎を築き、そこから人が構築することができます。

「ほとんどの人間は、0 から 80 までの製品を作成することに慣れています」と Devi 氏は言います。 「私たちは今、物事を 80 から 100 に引き上げる行動転換をしなければなりません。」

このアプローチは、時間に追われることが多い非営利団体にとって特に有益です。私たちが話を聞いた助成金受給者の一人は、「企業[組織]の人員配置レベルを実際に賄うことができない組織におけるAIの最大の利点は、これらの基本的で単純なタスクにあります。」と説明しました。

ベスはこの概念について詳しく説明し、AI は時間の配当であると説明しています。 AI は退屈なタスクを引き継ぐことで、非営利の専門家を解放し、より重要な問題に集中できるようにします。

「AI は私たちの仕事のやり方に大きな影響を与えるでしょう。これにより、多くの単調な作業、つまりスプレッドシートのエアロビクスやカットアンドペーストと呼ばれるものの多くが自動化されるでしょう」とベス氏は語った。 「また、おそらくドナー維持率などの問題に対処したり、戦略やイノベーションについてより創造的に考えたり、より影響力のあるプログラムを提供したりするための時間を節約するのにも役立ちます。」

実際には、これは、最初のアイデア、草案、または分析を生成する出発点として AI を採用し、その後、人間の洞察と専門知識を使用して AI の出力を洗練および強化することを意味します。 AI の出力を 80% から 100% の品質にするには、組織のコンテキストと AI では提供できない微妙な理解を組み込んだ人間のタッチが必要です。

AI を活用するには、成長マインドセット、つまりワークフローで AI を使用することを学習して適応する意欲と、AI が生成する出力と高品質でミッションに沿った結果との間のギャップを埋める能力が必要です。

トップダウンで賛同を増やす

リーダーシップ チームは教育を受けており、責任を持って AI を使用する方法について他の人を教育できる必要があります。彼らは組織の雰囲気を決定し、AI がどのように効果的かつ責任を持って導入および利用されるかに大きな影響を与えます。

「私が見聞きしたことは、それはトップから始まるということです」とデヴィは言いました。 「テクノロジーに深く投資しているリーダーシップチームがいる場合、組織全体やボランティアの賛同を得ることが容易になります。そうすれば、従業員やミッションに携わるすべての人が、責任を持って倫理的にミッションを使用する方法を確実に把握しながら、規模を拡大できます。」

リーダーは、AI の価値と可能性を明確かつ一貫して伝え、AI プロジェクトが組織の使命と一致していることを確認する必要があります。 AI がどのように成果と業務効率を向上させるかを明確に説明し、非営利団体の中核業務とテクノロジーの関連性を実証できる必要があります。

AI を支持するリーダーは、何が可能になるかについて現実的な期待を持たなければなりません。新しいスキルを学ぶために必要なサポートを従業員に提供しながら、運転席に人間を乗せ続ける必要性を理解する必要があります。これは、AI の使用に関する探求とイノベーションの文化を促進することを意味します。

「チームに AI ツールを学び、遊んでもらうための時間とリソースを与えてください」とデヴィ氏は言いました。 「生成 AI に時間を費やし、実際に実際に行って、プロンプトをより具体的にするよう人々に奨励してください。適切な種類の出力を得るためにコンテキストを追加する方法を学びましょう。」

「リーダーは AI の使用に関して心理的安全性を確立する必要があります」とベス氏は付け加えます。 「AI に対する初心者の心を正常化します。私たちは熟慮して責任を持ってゆっくりとそれを導入しなければなりません。」

AI は非営利の競争条件を平準化できる

AI を熱心に導入しているのは大規模な組織だと思われるかもしれませんが、デヴィ氏が研究で指摘したように、実際には AI から最も多くのメリットを得ているのは小規模な非営利団体です。

「小規模な非営利団体が AI を導入することが増えています」とデヴィ氏は言います。 「これは非常に時間の節約になり、リソースを活用してさらに前進する機会となるため、彼らはやる気を出しています。」

AI は、特にミッションを明確にすることが資金確保の鍵となる助成金交付分野において、経験の浅い新興非営利団体とより確立された非営利団体との間のギャップを埋めるのにも役立ちます。ある助成金受給者は、「私の組織が何を行っているのか、そして(アプリケーションが)何を求めているのかについて非常に詳細な説明を AI に与えたら、おそらく私を助けてくれるでしょう。」と語った。

AI は非営利団体に素晴らしい可能性をもたらしますが、導入を成功させるには思慮深いアプローチが必要です。責任ある AI 原則に従うことで、非営利団体は AI の力を活用して、その使命と価値観に忠実でありながら、影響力を増大させることができます。

非営利団体向けの AI に関する会話にさらに参加するには、オンデマンド ウェビナー「AI for Foundations: A Primer for Pragmatists」をご覧ください。 Submittable 社のサイエンス ディレクターである Anne Nies 氏、Microsoft のシニア テクノロジー ストラテジストである Alicia Tapia 氏、Submittable 社のソーシャル インパクト担当副社長である Sam Caplan 氏が、AI とその基盤における理想的な用途について学んだことを共有します。