機械学習でヒューマンインザループ(HITL)アプローチを使用する理由
公開: 2022-07-20アリゾナで女性を殴り殺した自動運転のUber車について聞いたことがありますか? 別の機会に、顔認識ソリューションはニュージャージーの犯罪者として無実の有色人種をプロファイリングし、AmazonのAIを利用した採用ツールは女性候補者に対する偏見を示しました。
明らかに、人工知能は間違いを犯します。 重大な、さらには人生を変える間違い。 では、この種のエラーを排除しながら、どうすればAIのメリットを享受できるでしょうか。 1つのオプションは、人間の専門家が展開後にAIビジネスソリューションをトレーニング、評価、および監視できるようにすることです。 この概念は、ヒューマンインザループ(HITL)機械学習と呼ばれます。 ガートナーは、一部の業界では、HITL AIソリューションが2025年までにすべての自動化製品の約30%を占めると予測しています。
AIの専門家であるMaksymBochokに話を聞いて、人間がループにどのように適合するか、人間がもたらすメリット、およびこのプロセスを整理する方法を理解しました。
ループの定義と利点における人間
間違いを犯すのは人間であり、物事を本当に汚すにはコンピューターが必要です。
–Paul Ehlrich、ドイツの医師、ノーベル賞受賞者
現在、Ehlrichの引用はこれまで以上に関連性があります。 AIが重要なアプリケーションを処理することで、エラーの許容範囲が狭くなります。 そして、機械は完璧ではありません。 彼らは受け取ったトレーニングデータに基づいてタスクの理解を深め、誤った仮定をする可能性があります。
そして、これはヒューマンインザループの機械学習の用語に私たちを連れて行きます。
ヒューマンインザループとは、人間の従業員を機械学習パイプラインに統合して、モデルを継続的にトレーニングおよび検証できるようにすることを意味します。 これには、モデルとそのトレーニングデータを扱うすべての人が含まれます。
ヒューマンインザループが機械学習アルゴリズムにどのように価値を付加するか
高レベルの精度を維持します。 これは、エラーを許容できないドメインにとって特に重要です。 たとえば、航空機の重要な機器を製造する場合、自動化と速度が必要ですが、安全性を危険にさらすことはできません。 HITLは、それほど重要ではないアプリケーションでも有益です。 たとえば、ドキュメントの規制コンプライアンスをAIに大きく依存している大規模なコンサルタント会社は、自然言語処理アルゴリズムを検証するために人間をループ機械学習に関与させています。
偏見を排除します。 機械学習モデルは、トレーニング中にバイアスがかかる可能性があります。 さらに、彼らは学び続けるので、展開後にバイアスを獲得することができます。 人間の従業員は、それに応じてアルゴリズムを修正することにより、この現象を早期に検出して排除できます。
透明性を確保します。 MLアルゴリズムは、数千または数百万ものパラメーターを評価して最終決定を下しますが、説明できないことがよくあります。 HITLには、アルゴリズムがどのように機能するかを理解し、アルゴリズムが下す決定を正当化できる人間がいます。 これは説明可能なAIと呼ばれます。 たとえば、ある人がローンを申請して拒否された場合、ローン担当者に拒否の理由と、次回のチャンスを増やすために申請者ができることを説明するように依頼することがあります。
雇用機会を開きます。 AIが人々の仕事を盗むという話をよく耳にします。 ループ内の人間による機械学習は、テクノロジーが新しい欠員を作成する方法の例を提供します。 インドのデータアノテーター市場を見てください。
AIパイプラインにおける人間の役割
Maksymは、予測を行う能力を強化するために、人間がAIパイプラインの一部になる方法を説明しています。 機械学習モデルは、教師あり学習モードまたは教師なし学習モードのいずれかで動作します。 教師あり学習の場合、人々は次のタスクを実行できます。
- ラベル付けと注釈。 人間の従業員がトレーニングデータセットにラベルを付けます。 必要な専門知識に応じて、これはドメインの専門家または適切なトレーニングを受けた従業員になります。
- モデルのリエンジニアリング。 必要に応じて、MLエンジニアとプログラマーはアルゴリズムを調整して、提供されたデータセットを最大限に活用できるようにすることができます。
- トレーニングと再トレーニング。 従業員は、注釈付きのデータをモデルにフィードし、出力を表示し、修正を加え、可能であればデータを追加し、モデルを再トレーニングします。
- 展開後のモデルのパフォーマンスの監視。 ループマシン学習ライフサイクルの人間は、クライアントの構内にAIソリューションを導入した後も停止しません。 MLエンジニアは、クライアントの同意を得てパフォーマンスを監視し続け、出力を選択的に検証することで、必要に応じてモデルを調整します。 選択的検証を通じて得られたケースは、アルゴリズムのパフォーマンスを向上させるために初期トレーニングデータセットを拡張します。
教師なし機械学習では、アルゴリズムはラベルのないデータを入力として受け取り、独自に構造を見つけます。 この場合、人間はデータセットに注釈を付けず、初期トレーニングにあまり干渉しません。 ただし、上記の手順4を実行することで、モデルを大幅に強化できます。
人間のループ機械学習が絶対に必要な場合
Maksymは、ヒューマンインループアプローチがほとんどの機械学習のユースケースに有益であると考えています。 AIソリューションは、大規模で大規模なデータセットでトレーニングされた場合に最適な予測を行うのに優れていますが、人間は限られた供給の低品質データサンプルからパターンを認識できます。 両方の機能を組み合わせると、強力なシステムを作成できます。 一部のアプリケーションでは、MLモデルは限られた人間の介入でうまく機能しますが、ループシステム内の本格的な人間が必須である場合があります。
- 医療診断など、アルゴリズムによるミスが非常に高くつく可能性がある場合。
- アルゴリズムを適切にトレーニングするために必要なデータが不足している場合。 トレーニングデータが多いほど、モデルのパフォーマンスが向上します。 ポストプロダクションモデルモニタリングの助けを借りて、関連するサンプルでトレーニングデータを補強し、モデルから学ぶべきより多くの例を与えることができます。
- アルゴリズムが数百または数千のサンプルでトレーニングされて一部のオブジェクトを分類するワンショット学習の場合。 次に、別のクラスが追加され、アルゴリズムは、わずかなトレーニングサンプルからそれを識別することを学習する必要があります。
- アルゴリズムがどのように結論に達したのかを説明することが不可欠である、厳しく規制された業界。 たとえば、医師がAIを使用して個別のがん治療を提案する場合、この治療計画を患者に正当化する必要があります。
MLアルゴリズムが処理するデータの種類を見ると、HITL AIは、コンピュータービジョンアプリケーションと自然言語処理(NLP)、特に皮肉を含む可能性のあるテキストの感情分析に不可欠です。 HITLは、表形式のデータおよび時系列分析にとってそれほど重要ではありません。
ループの練習で人間と人工知能を強化するためのヒント
Maksymは、機械学習でヒューマンインループアプローチを正常に実装する方法について、次のヒントを提供しています。
- 展開後にアルゴリズムのパフォーマンスを監視および分析する場合、ループシステム内の人間がどれほど優れていても、人間の参加者は、アルゴリズムが処理するすべての入力とそれが生成するすべての出力に注意を払うことができません。 ケースを賢く選択してください。 選択的検証を使用して、注意に値するケースを選択します。 Maksymは、スマートケース選択へのこれらのアプローチを提案しています。
- 信頼水準に基づく。 たとえば、アルゴリズムでは、すべての入力画像を猫または犬として分類する必要があります。 約48/52または同様の信頼水準を受け取る画像は、アルゴリズムを混乱させる画像であり、モデルを再トレーニングするために適切にラベル付けして使用する必要があります。
- 「些細な」ケースのランダム検証。 アルゴリズムのパフォーマンスに関して、10のケースのうち1つだけが貴重な情報を保持していると仮定しましょう。 このような場合の例は、モデルが誤った予測について自信過剰である場合です。 このケースを確実に検討する必要がありますが、アルゴリズムが誤った予測に自信過剰になったり、バイアスを許容したりしないように、残りの9つのケースからランダムに1つを選択する必要もあります。
- 前のステップで選択したケースを分析するときは、最終結果に限定しないでください。 ニューラルネットワークのニューロンの最終セットの出力を見る代わりに、下の画像のように前の層を確認し、間違った予測とアルゴリズムが行う最も近い正しい予測との間の距離の分布を分析します。
- アルゴリズムのエンドユーザーに、そのパフォーマンスに関するフィードバックを提供するように促します。 フィードバックフォームを作成し、すべての人が利用できるようにして、ユーザーが懸念事項を伝えることができるようにします。
- 前の手順のデータポイントを使用して、トレーニングデータセットを繰り返し拡張し続けます。 このようにして、クライアントの操作でいくつかの変更が行われた場合でも、アルゴリズムが適切なままであることが保証されます。
既製のHITL対応AIツール
ループマシン学習ツールには、トレーニングデータセットにラベルを付けて結果を検証できる、既成の人間がいます。 ただし、これらの標準化されたツールでは上記のヒントを実装できない場合があります。 ループツールの例では、次のような人間がいます。
Google Cloud HITL
このソリューションは、ドキュメントから抽出されたデータにラベルを付け、レビューし、編集するために人々が利用できるワークフローとユーザーインターフェイス(UI)を提供します。 クライアント企業は、自社の従業員をラベラーとして使用するか、GoogleHITLの従業員を雇用してタスクを遂行することができます。
このツールには、ラベラーのワークフローを合理化し、信頼性のしきい値に基づいて出力をフィルタリングするための特定のUI機能があります。 また、企業はラベラーのプールを管理できます。
Amazon Augmented AI(Amazon A2I)
このヒューマンインループ人工知能ツールを使用すると、信頼性が低くランダムなML予測を確認できます。 テキストのみで動作するGoogleCloudHITLとは異なり、AmazonA2IはAmazonRecognitionを補完して画像を抽出し、結果を検証できます。 また、表形式のデータを確認するのにも役立ちます。
クライアントが提供されたA2Iワークフローに満足していない場合は、SageMakerまたは同様のツールを使用して独自のアプローチを開発できます。
DataRobot Humble AI
謙虚なAIにより、人々は予測を行う際にMLモデルが適用しなければならない一連のルールを指定できます。 すべてのルールには、条件と対応するアクションが含まれています。 現在、3つのアクションがあります。
- 人間が干渉することなく対応する状態を監視するだけの場合、操作はありません
- モデルの出力を別の値に置き換えることができる場合の予測のオーバーライド
- エラーを返し、予測を完全に破棄するだけです
それで、ループ内の人間による機械学習はあなたにとって最良のアプローチですか?
ループAIアプローチで人間を採用すると、予測の精度、透明性、品質が向上します。 また、雇用機会を創出しながら人間の介入によりタスクを完了するために必要なコストと時間が増加します。これはプラスの副作用です。
HITL AIの明らかな利点にもかかわらず、特定のアクティビティに関連するリスクのために、ヒューマンインオブザループが好ましいアプローチであるアプリケーションがあります。 自律型兵器の開発と配備について考えてみてください。
MLアルゴリズムで人間をループで使用できると思われるが、運用コストと必要な精度と説明性のバランスをとる方法がわからない場合は、機械学習コンサルタントに連絡してください。 彼らはあなたと協力して適切なものを見つけます。 ヒューマンインループの機械学習があなたのケースで最適なソリューションではない場合、トレーニングデータの不足の問題を克服するのに役立つ他のMLトリックがあります。
- 事前にトレーニングされたモデルを独自のデータで微調整する場合の転移学習
- 半教師あり学習、ラベルのない大規模なデータセットを少数のラベルの付いたサンプルと一緒に使用する場合
- 各バッチのトレーニングサンプルのランダムな部分をマスクし、アルゴリズムがそれを予測しようとする場合の自己教師あり学習
MLモデルの精度と説明性を改善することを検討していますか? 連絡する! ITRex AIの専門家は、お客様の状況を調査し、お客様のニーズに対応するための最適なヒューマンインループアプローチを考案します。
もともとは2022年7月17日にhttps://itrexgroup.comで公開されました。