IA pour les organisations à but non lucratif : ce que signifie faire confiance mais vérifier en pratique

Publié: 2024-08-29

À parts égales de scepticisme et de FOMO. C’est ce que pensent la plupart des professionnels à but non lucratif avec lesquels nous avons parlé cette année à propos de l’intelligence artificielle (IA).

Vous ne pouvez pas vous mettre la tête dans le sable lorsqu’il s’agit d’IA, et vous ne devriez pas non plus vous lancer sans réfléchir profondément à l’impact potentiel sur votre organisation et votre communauté.

Comme l’écrit Sam Caplan : « Si 2023 était l’année de la curiosité pour l’IA, 2024 est l’année de l’intentionnalité de l’IA . » Cette année, l’IA commence à véritablement mûrir. Mais cela ne signifie pas que l’IA soit totalement exempte de problèmes de confiance, ce que reconnaissent même les ardents défenseurs de l’IA.

Devi Thomas, responsable mondial de la capacité communautaire à but non lucratif chez Microsoft Philanthropies, apporte une richesse de connaissances sur l'intégration de la technologie pour le bien social. Beth Kanter, consultante et auteure chevronnée à but non lucratif, a passé des années à aider les organisations à tirer parti de la technologie pour amplifier leur impact. Ensemble, leurs idées mettent en lumière la manière dont les organisations à but non lucratif peuvent adopter l’IA de manière réfléchie et responsable.

Tout se résume à un seul concept : faites confiance, mais vérifiez . Voici ce que cela signifie en pratique.

Mettez toujours un humain à la place du pilote

Il peut être tentant de laisser l’IA prendre le relais et diriger le navire, compte tenu de sa simplicité d’utilisation. Cependant, Devi et Beth soulignent l'importance de toujours garder un humain fermement dans le siège du pilote.

Comme le dit Beth : « Nous examinons vraiment l’IA et la considérons à la fois en interne et en externe chez Microsoft comme votre copilote. L’ humain est le pilote.

L'IA est une technologie d'assistance qui améliore la production humaine sans remplacer le jugement humain. Ce qui est crucial, c’est de savoir quelles tâches déléguer à l’IA. Dans une enquête menée auprès de plus de 400 dirigeants d'organisations à but non lucratif, Devi a déclaré que Microsoft a constaté que 25 % d'entre eux pensent que la compétence la plus importante à enseigner à leurs équipes est de savoir quand utiliser l'IA et quand utiliser un humain.

Comme le dit Eric Lucht de Microsoft : « Feriez-vous confiance à un stagiaire ? Sinon, n’utilisez pas l’IA pour cela. Si vous ne faites confiance qu’à un professionnel hautement rémunéré possédant des années d’expérience pour une tâche, vous ne devriez pas utiliser l’IA pour cela.

La responsabilité est le principe numéro un de Microsoft en matière d’IA responsable. En pratique, cela signifie que les utilisateurs de l’IA ne doivent en aucun cas faire de compromis sur le fait qu’une surveillance humaine doit être impliquée, dès la phase de conception. Garder le contrôle sur les humains garantit que l’IA reste un outil pour soutenir et augmenter les efforts humains, plutôt qu’un piètre substitut.

Comprendre les limites de l'IA

De l’analyse des ensembles de données des donateurs pour prédire les futures réponses aux catastrophes, à la traduction pour les populations déplacées, il existe des cas d’utilisation apparemment infinis de l’IA pour les organisations à but non lucratif. L’IA recèle un énorme potentiel, mais ce n’est pas une solution miracle. Comprendre ses limites est crucial pour les organisations à but non lucratif qui cherchent à utiliser l’IA de manière responsable.

Reconnaître la courbe d’apprentissage

Même si le traitement du langage naturel rend l’IA accessible au plus grand nombre, son utilisation nécessite encore une courbe d’apprentissage, comme pour toute nouvelle technologie. Comme le note Devi dans l'étude de Microsoft, « 58 % des dirigeants d'organisations à but non lucratif s'inquiètent de la courbe d'apprentissage abrupte pour comprendre l'IA ».

Investissez du temps dans la formation et la familiarisation de votre équipe avec les outils d’IA. Ne présumez pas que tout le monde sait comment les utiliser correctement ; c'est ainsi que vous finissez par manquer des nuances importantes lorsque vous utilisez l'IA.

Attention à l'excès de confiance

L’IA peut souvent paraître confiante dans ses résultats, ce qui peut conduire à une confiance mal placée. L'IA est encore en chantier et est capable de commettre des erreurs, comme le démontre le récent lancement notoire des aperçus de l'IA de Google recommandant de manger des pierres ou d'ajouter de la colle à la pizza.

"Toutes les compétences de pensée critique que nous avons acquises en utilisant Internet sont nécessaires ici", prévient Devi.

C'est là l'essence même du principe « Faites confiance, mais vérifiez » : abordez les résultats de l'IA avec un œil critique et vérifiez les résultats plutôt que de les prendre au pied de la lettre.

Adoptez une approche axée sur la confidentialité

Devi a déclaré que 63 % des dirigeants d'organisations à but non lucratif s'inquiètent des risques de sécurité associés à l'utilisation de l'IA. L’utilisation responsable de l’IA implique de comprendre où vont vos intrants, comment ils sont utilisés et d’où proviennent vos extrants.

Les données traitées par les organisations à but non lucratif sont souvent sensibles. Tous les systèmes basés sur l'IA utilisés par les organisations à but non lucratif doivent être conformes aux réglementations et aux meilleures pratiques en matière de protection des données. Assurez-vous qu'ils chiffrent les données, stockent les données en toute sécurité et mettent régulièrement à jour les protocoles de sécurité pour protéger les informations.

Le plus important est peut-être d’éduquer votre personnel et vos bénévoles sur la façon de se protéger et de protéger leurs données lorsqu’ils utilisent l’IA. Intégrez dès le départ les considérations relatives à la confidentialité. Soyez transparent avec les parties prenantes sur la manière dont les données sont utilisées et protégées par les outils d’IA qu’elles utilisent.

Sachez d'où viennent vos résultats

La transparence est un autre principe important d’une IA responsable et essentielle pour instaurer la confiance dans les systèmes d’IA. Les gens doivent savoir d’où proviennent les données utilisées par l’IA et quels sont les processus impliqués dans la génération des résultats. En étant transparentes, les organisations à but non lucratif peuvent garantir que les parties prenantes comprennent et font confiance aux systèmes d'IA en place.

Par exemple, Copilot by Bing cite les sources de chacune de ses allégations générées, avec un lien hypertexte vers une page Web appropriée. Devi encourage les utilisateurs d’IA à être curieux et à se demander d’où l’IA tire ses informations.

Commencez petit, puis réévaluez

Adopter l’IA peut s’avérer une tâche ardue, en particulier pour les organisations à but non lucratif disposant de ressources limitées. C'est pourquoi il vaut la peine de commencer modestement, puis de réévaluer si l'IA a du sens pour votre organisation à but non lucratif.

Devi recommande aux organisations à but non lucratif de commencer modestement avec l'IA, en suivant un processus évolutif en trois étapes :

  1. Pensez à votre cas d'utilisation de l'IA. Quelque chose de spécifique et de gérable, où l’IA offre des avantages évidents. Par exemple, automatiser les réponses par e-mail ou analyser les données des donateurs. En se concentrant sur un seul cas d’utilisation, les organisations à but non lucratif peuvent mieux contrôler et mesurer les résultats.
  2. Testez ce cas d'utilisation . Établissez des KPI pour mesurer l’impact de l’IA sur le cas d’utilisation que vous avez choisi. Implémentez l’outil d’IA à petite échelle et surveillez de près ses performances.
  3. Évaluer et ajuster . Déterminez ce qui fonctionne et ce qui ne fonctionne pas. Évaluez l'impact des résultats de ce projet à petite échelle par rapport à vos KPI. Évaluez les avantages, les défis et toute conséquence imprévue. Comme le dit Devi, il s'agit d'un apprentissage continu et d'une amélioration par rapport au cas d'utilisation choisi.

À partir de là, vous pouvez judicieusement augmenter ou diminuer votre utilisation de l’IA.

Déplacez votre concentration de la pleine production vers les derniers 20 %

L’adoption de l’IA nécessite un changement fondamental dans la façon dont nous abordons les tâches et les projets. Il ne s’agit plus de repartir de zéro. L’IA peut jeter les bases et les gens peuvent construire à partir de là.

« La plupart des êtres humains sont habitués à créer un produit de 0 à 80 », explique Devi. « Nous devons maintenant procéder à un changement de comportement en faisant passer les valeurs de 80 à 100. »

Cette approche est particulièrement bénéfique pour les organisations à but non lucratif qui sont souvent pressées par le temps. Comme l'a expliqué un bénéficiaire avec lequel nous avons parlé : « Le plus grand avantage de l'IA dans les organisations qui ne peuvent vraiment pas se permettre les niveaux de personnel d'une [organisation] d'entreprise réside dans ces tâches basiques et subalternes.

Beth développe ce concept, décrivant l'IA comme un dividende du temps. En prenant en charge des tâches plus fastidieuses, l’IA permet aux professionnels à but non lucratif de se concentrer sur des problèmes plus importants.

« L’IA va avoir un impact profond sur la façon dont nous effectuons notre travail. Cela va automatiser une grande partie du travail fastidieux, une grande partie de ce que j'appelle l'aérobic sur tableur, le copier-coller », a déclaré Beth. "Cela va également nous aider à libérer du temps, peut-être, pour aborder des questions telles que le taux de fidélisation des donateurs ou nous aider à réfléchir de manière plus créative à la stratégie et à l'innovation et à mettre en œuvre des programmes plus efficaces."

En pratique, cela signifie adopter l’IA comme point de départ pour générer des idées, des ébauches ou des analyses initiales, puis affiner et améliorer les résultats de l’IA grâce à la perspicacité et à l’expertise humaines. Obtenir un résultat d’IA dont la qualité est de 80 % décente à 100 % nécessite une touche humaine, intégrant le contexte organisationnel et une compréhension nuancée que l’IA ne peut pas fournir.

Travailler avec l’IA nécessite un état d’esprit de croissance : une volonté d’apprendre et de s’adapter à l’utilisation de l’IA dans vos flux de travail, ainsi qu’une capacité à combler le fossé entre les résultats générés par l’IA et les résultats de haute qualité alignés sur la mission.

Augmenter l’adhésion du haut vers le bas

Les équipes dirigeantes doivent être à la fois formées et capables d’éduquer les autres sur la manière d’utiliser l’IA de manière responsable. Ils donnent le ton à leur organisation et ont une influence considérable sur la manière dont l’IA est adoptée et utilisée de manière efficace et responsable.

« Ce que j'ai vu et entendu, c'est que cela commence au sommet », a déclaré Devi. « Si vous disposez d'une équipe de direction profondément investie dans la technologie, il est plus facile de susciter l'adhésion de l'ensemble de l'organisation et des bénévoles. Ensuite, vous pouvez évoluer, en vous assurant que les employés et tous ceux qui touchent à la mission savent comment l'utiliser de manière responsable et éthique.

Les dirigeants doivent communiquer de manière claire et cohérente sur la valeur et le potentiel de l’IA, et s’assurer que les projets d’IA sont alignés sur la mission de l’organisation. Ils devraient être capables d'expliquer comment l'IA améliore les résultats et l'efficacité opérationnelle, démontrant ainsi la pertinence de la technologie pour le travail principal de l'organisation à but non lucratif.

Les dirigeants qui adhèrent à l’IA doivent également avoir des attentes réalistes quant à ce qui est possible. Ils doivent comprendre la nécessité de garder les humains aux commandes, tout en offrant aux employés le soutien dont ils ont besoin pour acquérir de nouvelles compétences. Cela signifie favoriser une culture d’exploration et d’innovation autour de l’utilisation de l’IA.

« Donnez aux équipes le temps et les ressources nécessaires pour apprendre et jouer avec les outils d'IA », a déclaré Devi. « Encouragez les gens à passer du temps avec l'IA générative, à s'y lancer et à être de plus en plus précis dans leurs invites. Apprenez à ajouter plus de contexte pour obtenir le bon type de résultat.

« Les dirigeants doivent créer une sécurité psychologique autour de l’utilisation de l’IA », ajoute Beth. « Normalisez l'esprit du débutant vers l'IA. Nous devons procéder lentement et de manière réfléchie et responsable pour l’adopter.

L’IA peut uniformiser les règles du jeu pour les organisations à but non lucratif

Vous pensez peut-être que ce sont les grandes organisations qui adoptent l’IA avec enthousiasme, mais comme Devi l’a noté dans son étude, ce sont en réalité les petites organisations à but non lucratif qui tirent le meilleur parti de l’IA.

« Les petites organisations à but non lucratif adoptent l'IA plus souvent », déclare Devi. "Ils sont motivés car c'est un gain de temps considérable, une opportunité d'utiliser des ressources pour aller plus loin."

L’IA peut également contribuer à combler le fossé entre les organisations à but non lucratif émergentes et inexpérimentées et celles plus établies, en particulier dans le domaine de l’octroi de subventions, où l’articulation de votre mission est essentielle pour obtenir un financement. Comme nous l’a dit un bénéficiaire : « Si je devais donner à AI une description très détaillée de ce que fait mon organisation et de ce que [une candidature] recherche, elle serait probablement en mesure de m’aider. »

L’IA offre un potentiel incroyable aux organisations à but non lucratif, mais son adoption réussie nécessite une approche réfléchie. En suivant les principes de l’IA responsable, les organisations à but non lucratif peuvent exploiter la puissance de l’IA pour multiplier leur impact tout en restant fidèles à leur mission et à leurs valeurs.

Pour vous impliquer davantage dans la conversation autour de l'IA pour les organisations à but non lucratif, regardez notre webinaire à la demande, AI for Foundations : A Primer for Pragmatists. Écoutez Anne Nies, directrice scientifique chez Submittable, Alicia Tapia, stratège technologique principale chez Microsoft, et Sam Caplan, vice-président de l'impact social chez Submittable, partager ce qu'ils ont appris sur l'IA et ses utilisations idéales pour les fondations.