비영리단체를 위한 AI: 신뢰가 아닌 검증이 실제로 의미하는 것

게시 됨: 2024-08-29

회의론과 FOMO가 동일합니다. 이것이 올해 우리가 대화한 대부분의 비영리 전문가들이 인공 지능(AI)에 대해 느끼는 방식입니다.

AI에 관해서는 모래 속에 머리를 집어넣을 수 없으며, 조직과 커뮤니티에 미칠 잠재적 영향에 대해 깊이 생각하지 않고 뛰어들어서도 안 됩니다.

샘 캐플란(Sam Caplan)은 “2023년이 AI 호기심의 해라면 2024년은 AI 의도성의 해”라고 썼습니다. 올해 AI는 본격적으로 성숙해지기 시작했습니다. 그러나 이것이 AI가 신뢰 문제로부터 완전히 자유롭다는 것을 의미하는 것은 아니며 AI를 강력하게 옹호하는 사람들도 이를 인정합니다.

Microsoft Philanthropies의 비영리 커뮤니티 역량 글로벌 책임자인 Devi Thomas는 사회적 이익을 위한 기술 통합에 대한 풍부한 지식을 제공합니다. 노련한 비영리 컨설턴트이자 작가인 Beth Kanter는 조직이 기술을 활용하여 영향력을 확대하도록 돕는 데 수년을 보냈습니다. 이들의 통찰력은 비영리 단체가 어떻게 신중하고 책임감 있게 AI를 수용할 수 있는지에 대해 밝혀줍니다.

모든 것은 하나의 개념으로 귀결됩니다: 신뢰하되 검증하라 . 이것이 실제로 의미하는 바는 다음과 같습니다.

항상 조종석에 사람을 앉혀라

사용하기 쉬운 만큼 AI가 배를 인계받아 조종하게 하고 싶은 유혹이 생길 수 있습니다. 그러나 Devi와 Beth는 항상 인간을 조종석에 단단히 유지하는 것의 중요성을 강조합니다.

Beth가 말했듯이, “우리는 AI를 실제로 살펴보고 이를 Microsoft 내부 및 외부에서 부조종사로 참조합니다. 인간 이 조종사다.”

AI는 인간의 판단을 대체하지 않고 인간의 성과를 향상시키는 보조 기술입니다. 중요한 것은 AI에 어떤 작업을 위임할지 아는 것입니다. Devi는 400명 이상의 비영리 리더를 대상으로 한 설문 조사에서 Microsoft가 25%가 팀을 가르치는 데 가장 중요한 기술이 언제 AI를 사용할지, 언제 인간을 사용할지라고 생각하는 것으로 나타났다고 말했습니다.

Microsoft의 Eric Lucht는 “인턴을 믿으시겠습니까? 그렇지 않다면 AI를 사용하지 마세요.” 특정 작업에 대해 다년간의 경험을 갖고 높은 급여를 받는 전문가만을 신뢰한다면 해당 작업에 AI를 사용해서는 안 됩니다.

책임은 책임감 있는 AI에 대한 Microsoft의 최우선 원칙입니다. 실제로 이는 AI 사용자가 설계 단계부터 인간의 감독이 관련되어야 한다는 사실에 어떤 식으로든 타협해서는 안 된다는 것을 의미합니다. 인간이 통제할 수 있게 되면 AI는 인간의 노력을 대체할 수 없는 도구가 아니라 인간의 노력을 지원하고 강화하는 도구로 남게 됩니다.

AI의 한계를 이해하라

기증자 데이터 세트를 분석하여 향후 재난 대응을 예측하는 것부터 이재민을 위한 번역까지 비영리 단체를 위한 AI 사용 사례는 겉으로는 무한해 보입니다. AI는 엄청난 잠재력을 갖고 있지만 마법의 총알은 아닙니다. 책임감 있게 AI를 사용하려는 비영리 단체에게는 AI의 한계를 이해하는 것이 중요합니다.

학습 곡선을 인식하세요

자연어 처리를 통해 대부분의 사람들이 AI에 접근할 수 있지만, 다른 신기술과 마찬가지로 이를 사용하는 데에는 여전히 학습 곡선이 있습니다. Devi가 Microsoft 연구에서 언급한 것처럼 "비영리 리더의 58%는 AI를 이해하기 위한 가파른 학습 곡선에 대해 걱정하고 있습니다."

팀을 교육하고 AI 도구에 익숙해지는 데 시간을 투자하세요. 모든 사람이 올바르게 사용하는 방법을 알고 있다고 가정하지 마십시오. 이것이 AI를 사용할 때 중요한 뉘앙스를 놓치게 되는 이유입니다.

과신을 조심하세요

AI는 종종 출력에 대해 자신감 있는 것처럼 보일 수 있으며, 이는 잘못된 신뢰로 이어질 수 있습니다. AI는 여전히 진행 중이며 실수를 할 수 있습니다. 최근 Google의 AI 개요 출시로 인해 돌을 먹거나 피자에 접착제를 추가하라는 권장 사항을 내놓는 악명 높은 사례에서 알 수 있습니다.

Devi는 “인터넷을 사용하면서 배운 모든 비판적 사고 기술이 여기에 필요합니다”라고 경고합니다.

이것이 "신뢰하되 검증하라"의 핵심입니다. AI 출력에 비판적인 시각으로 접근하고 결과를 액면 그대로 받아들이기보다는 검증하십시오.

개인 정보 보호 우선 접근 방식 채택

Devi는 비영리 단체 리더의 63%가 AI 사용과 관련된 보안 위험을 걱정하고 있다고 밝혔습니다. 책임감 있는 AI 사용에는 입력이 어디로 가는지, 입력이 어떻게 사용되는지, 출력이 어디서 나오는지 이해하는 것이 포함됩니다.

비영리단체가 처리하는 데이터는 민감한 경우가 많습니다. 비영리 단체가 사용하는 모든 AI 기반 시스템은 데이터 보호 규정 및 모범 사례를 준수해야 합니다. 데이터를 암호화하고, 데이터를 안전하게 저장하고, 보안 프로토콜을 정기적으로 업데이트하여 정보를 보호하는지 확인하세요.

아마도 가장 중요한 것은 직원과 자원봉사자에게 AI를 사용할 때 자신과 데이터를 보호하는 방법을 교육하는 것입니다. 처음부터 개인 정보 보호 고려 사항을 포함합니다. 이해관계자가 사용하는 AI 도구를 통해 데이터가 어떻게 사용되고 보호되는지 투명하게 공개하세요.

출력이 어디서 나오는지 파악

투명성은 책임 있는 AI의 또 다른 중요한 원칙이자 AI 시스템에 대한 신뢰를 구축하는 데 핵심입니다. 사람들은 AI가 사용하는 데이터의 출처와 결과 생성과 관련된 프로세스를 알아야 합니다. 비영리단체는 투명성을 통해 이해관계자가 AI 시스템을 이해하고 신뢰하도록 할 수 있습니다.

예를 들어, Copilot by Bing은 생성된 각 주장의 출처를 적절한 웹페이지에 대한 하이퍼링크와 함께 인용합니다. Devi는 AI 사용자가 호기심을 갖고 AI가 정보를 어디서 얻는지 질문하도록 권장합니다.

작게 시작한 다음 재평가하세요

AI를 채택하는 것은 특히 리소스가 제한된 비영리 단체의 경우 어려운 작업이 될 수 있습니다. 그렇기 때문에 작게 시작한 다음 AI가 비영리 단체에 적합한지 재평가하는 것이 좋습니다.

Devi는 비영리 단체가 확장 가능한 3단계 프로세스에 따라 AI로 소규모로 시작할 것을 권장합니다.

  1. AI 사용 사례를 생각해 보세요. AI가 명확한 이점을 제공하는 구체적이고 관리 가능한 것입니다. 예를 들어 이메일 응답 자동화 또는 기부자 데이터 분석 등이 있습니다. 단일 사용 사례에 집중함으로써 비영리 단체는 결과를 더 잘 제어하고 측정할 수 있습니다.
  2. 해당 사용 사례를 테스트하십시오 . 선택한 사용 사례에 대한 AI의 영향을 측정하기 위한 KPI를 설정하세요. AI 도구를 소규모로 구현하고 성능을 면밀히 모니터링하세요.
  3. 평가하고 조정합니다 . 작동하는 것과 작동하지 않는 것을 결정합니다. 이 소규모 프로젝트 결과가 KPI에 미치는 영향을 평가하세요. 이점, 문제점 및 의도하지 않은 결과를 평가하십시오. Devi가 말했듯이 이는 선택한 사용 사례에 대한 지속적인 학습과 개선에 관한 것입니다.

여기에서 AI 사용을 신중하게 확장하거나 축소할 수 있습니다.

전체 생산에서 마지막 20%로 초점을 전환하세요.

AI를 채택하려면 작업과 프로젝트에 접근하는 방식에 근본적인 변화가 필요합니다. 더 이상 백지상태에서 시작하는 것이 아닙니다. AI는 기반을 마련할 수 있고 사람들은 거기에서 구축할 수 있습니다.

“대부분의 인간은 0부터 80까지 제품을 만드는 데 익숙합니다.”라고 Devi는 말합니다. "이제 우리는 80에서 100으로 행동을 바꿔야 합니다."

이 접근 방식은 시간이 부족한 비영리 단체에 특히 유용합니다. 우리가 인터뷰한 한 수혜자는 "기업 [조직]의 인력 수준을 감당할 수 없는 조직에서 AI의 가장 큰 이점은 이러한 기본적이고 비천한 작업에 있습니다."라고 설명했습니다.

Beth는 AI를 시간 배당으로 설명하면서 이 개념을 자세히 설명합니다. 더 지루한 작업을 대신함으로써 AI는 비영리 전문가가 더 중요한 문제에 집중할 수 있도록 해줍니다.

“AI는 우리가 업무를 수행하는 방식에 큰 영향을 미칠 것입니다. 내가 스프레드시트 에어로빅이라고 부르는 많은 지루한 작업, 잘라내어 붙여넣기 작업을 자동화할 것입니다.”라고 Beth는 말했습니다. "또한 기부자 유지율과 같은 문제를 해결하거나 전략과 혁신에 대해 보다 창의적으로 생각하고 보다 영향력 있는 프로그램 전달을 수행하는 데 시간을 확보하는 데 도움이 될 것입니다."

실제로 이는 초기 아이디어, 초안 또는 분석을 생성하기 위한 출발점으로 AI를 수용한 다음 인간의 통찰력과 전문 지식을 통해 AI 결과를 개선하고 향상시키는 것을 의미합니다. 80%에서 100% 품질까지의 AI 결과물을 얻으려면 AI가 제공할 수 없는 조직적 맥락과 미묘한 이해를 통합하는 인간적 손길이 필요합니다.

AI를 사용하려면 성장 마인드가 필요합니다. 즉, 워크플로에서 AI를 사용하는 것에 대해 배우고 적응하려는 의지와 AI에서 생성된 결과물과 고품질의 미션에 부합하는 결과 사이의 격차를 해소할 수 있는 능력이 필요합니다.

하향식에서 구매를 늘리세요.

리더십 팀은 AI를 책임감 있게 사용하는 방법에 대해 교육을 받고 다른 사람들에게도 교육할 수 있어야 합니다. 그들은 조직의 분위기를 설정하고 AI가 얼마나 효과적이고 책임감 있게 채택되고 활용되는지에 막대한 영향을 미칩니다.

Devi는 “내가 보고 들은 것은 그것이 위에서부터 시작된다는 것입니다.”라고 말했습니다. “기술에 많은 투자를 한 리더십 팀이 있다면 조직 전체와 자원 봉사자들과 함께 동의를 얻는 것이 더 쉽습니다. 그러면 직원과 임무에 관여하는 모든 사람이 임무를 책임감 있고 윤리적으로 사용하는 방법을 알 수 있도록 확장할 수 있습니다.”

리더는 AI의 가치와 잠재력을 명확하고 일관되게 전달해야 하며 AI 프로젝트가 조직의 사명과 일치하는지 확인해야 합니다. 그들은 AI가 어떻게 결과와 운영 효율성을 향상하는지 설명하고 비영리 단체의 핵심 업무에 대한 기술의 관련성을 입증할 수 있어야 합니다.

AI를 받아들이는 리더는 무엇이 가능한지에 대해 현실적인 기대를 갖고 있어야 합니다. 그들은 직원들이 새로운 기술을 배우는 데 필요한 지원을 제공하는 동시에 인간을 운전석에 유지해야 할 필요성을 파악해야 합니다. 이는 AI 사용에 대한 탐구와 혁신의 문화를 조성하는 것을 의미합니다.

Devi는 "팀에게 AI 도구를 배우고 활용할 수 있는 시간과 리소스를 제공하세요."라고 말했습니다. “사람들이 생성 AI와 함께 시간을 보내고, 들어가서 프롬프트를 통해 점점 더 구체적으로 접근하도록 장려하십시오. 올바른 종류의 결과를 얻기 위해 더 많은 컨텍스트를 추가하는 방법을 알아보세요.”

Beth는 "리더는 AI 사용에 대한 심리적 안전을 확보해야 합니다."라고 덧붙입니다. “AI를 향한 초심자의 마음을 정상화하라. 우리는 신중하고 책임감 있게 이를 채택하는 데 속도를 늦춰야 합니다.”

AI는 비영리 활동의 장을 평준화할 수 있습니다

대규모 조직이 AI를 열정적으로 채택한다고 생각할 수도 있지만 Devi가 연구에서 지적했듯이 실제로 AI를 최대한 활용하는 것은 소규모 비영리 조직입니다.

Devi는 “소규모 비영리 단체가 AI를 더 자주 채택하고 있습니다.”라고 말합니다. "그들은 이것이 시간을 크게 절약해 주고 자원을 활용하여 더 많은 것을 할 수 있는 기회이기 때문에 동기를 부여받습니다."

AI는 또한 경험이 부족한 신흥 비영리 단체와 기존 비영리 단체 간의 격차를 줄이는 데 도움이 될 수 있습니다. 특히 임무를 명확히 하는 것이 자금 확보의 핵심인 보조금 조성 분야에서 더욱 그렇습니다. 한 수혜자는 "AI에게 우리 조직이 하는 일과 [애플리케이션]이 찾고 있는 것이 무엇인지에 대한 매우 자세한 설명을 제공한다면 아마도 도움이 될 것입니다."라고 말했습니다.

AI는 비영리 단체에 놀라운 잠재력을 제공하지만 성공적인 도입을 위해서는 신중한 접근 방식이 필요합니다. 책임감 있는 AI 원칙을 따르면 비영리 단체는 AI의 힘을 활용하여 임무와 가치를 충실히 유지하면서 영향력을 배가할 수 있습니다.

비영리 단체를 위한 AI에 대한 대화에 더 많이 참여하려면 주문형 웹 세미나인 기초를 위한 AI: 실용주의자를 위한 입문서를 시청하세요. Submittable의 과학 담당 이사인 Anne Nies, Microsoft의 수석 기술 전략가인 Alicia Tapia, Submittable의 Social Impact 담당 부사장인 Sam Caplan이 AI와 AI의 이상적인 재단 활용에 대해 배운 내용을 공유하는 내용을 들어보세요.